論文の概要: Don't Lose Yourself: Boosting Multimodal Recommendation via Reducing Node-neighbor Discrepancy in Graph Convolutional Network
- arxiv url: http://arxiv.org/abs/2412.18962v1
- Date: Wed, 25 Dec 2024 18:41:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:24:18.136706
- Title: Don't Lose Yourself: Boosting Multimodal Recommendation via Reducing Node-neighbor Discrepancy in Graph Convolutional Network
- Title(参考訳): 自分自身を失うな - グラフ畳み込みネットワークにおけるノード近傍の不一致の低減によるマルチモーダルレコメンデーションの強化
- Authors: Zheyu Chen, Jinfeng Xu, Haibo Hu,
- Abstract要約: マルチモーダルレコメンデーションシステムは、視覚的およびテキスト的の観点から、ノードに関するパーソナライズされた情報を学ぶことができる。
我々は,ノード近傍の離散性(RedNnD)を低減させることにより,特徴集約中のegoノードのパーソナライズされた情報を保持する新しいモデルを提案する。
3つの公開データセットの実験は、RedNnDが精度と堅牢性で最先端のパフォーマンスを達成することを示している。
- 参考スコア(独自算出の注目度): 3.9014171807858555
- License:
- Abstract: The rapid expansion of multimedia contents has led to the emergence of multimodal recommendation systems. It has attracted increasing attention in recommendation systems because its full utilization of data from different modalities alleviates the persistent data sparsity problem. As such, multimodal recommendation models can learn personalized information about nodes in terms of visual and textual. To further alleviate the data sparsity problem, some previous works have introduced graph convolutional networks (GCNs) for multimodal recommendation systems, to enhance the semantic representation of users and items by capturing the potential relationships between them. However, adopting GCNs inevitably introduces the over-smoothing problem, which make nodes to be too similar. Unfortunately, incorporating multimodal information will exacerbate this challenge because nodes that are too similar will lose the personalized information learned through multimodal information. To address this problem, we propose a novel model that retains the personalized information of ego nodes during feature aggregation by Reducing Node-neighbor Discrepancy (RedN^nD). Extensive experiments on three public datasets show that RedN^nD achieves state-of-the-art performance on accuracy and robustness, with significant improvements over existing GCN-based multimodal frameworks.
- Abstract(参考訳): マルチメディアコンテンツの急速な拡大は、マルチモーダルレコメンデーションシステムの出現につながった。
様々なモダリティからのデータを完全に活用することで、永続的なデータ空間の問題が軽減されるため、レコメンデーションシステムでは注目度が高まっている。
そのため、マルチモーダルレコメンデーションモデルは、視覚的およびテキスト的の観点から、ノードに関するパーソナライズされた情報を学ぶことができる。
データ空間の問題をさらに緩和するため、従来の研究では、ユーザとアイテムのセマンティック表現を強化するために、ユーザ間の潜在的な関係を捉えることで、マルチモーダルレコメンデーションシステムのためのグラフ畳み込みネットワーク(GCN)を導入している。
しかし、GCNの採用は必然的にオーバースムース化の問題を導入し、ノードが似すぎている。
残念なことに、マルチモーダル情報の導入は、非常に類似したノードがマルチモーダル情報を通じて学習したパーソナライズされた情報を失うため、この課題を悪化させる。
この問題に対処するために,ノード近傍の離散性(RedN^nD)を低減させることにより,特徴集約中のエゴノードのパーソナライズされた情報を保持する新しいモデルを提案する。
3つの公開データセットに対する大規模な実験によると、RedN^nDは、既存のGCNベースのマルチモーダルフレームワークよりも大幅に改善され、正確性と堅牢性に関する最先端のパフォーマンスを達成する。
関連論文リスト
- Multimodal Graph Neural Network for Recommendation with Dynamic De-redundancy and Modality-Guided Feature De-noisy [8.799657717956343]
動的デ冗長性とモダリティ誘導型特徴デノイズを用いたマルチモーダルグラフニューラルネットワーク(MGNM)を提案する。
実験により,MGNMは冗長情報の復調・除去を行うマルチモーダル情報に対して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-11-03T13:23:07Z) - Contrastive Graph Representation Learning with Adversarial Cross-view Reconstruction and Information Bottleneck [5.707725771108279]
本稿では,CGRL (Contrastive Graph Representation Learning with Adversarial Cross-view Reconstruction and Information Bottleneck) を用いたノード分類手法を提案する。
提案手法は既存の最先端アルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2024-08-01T05:45:21Z) - Diffusion-based Data Augmentation for Object Counting Problems [62.63346162144445]
拡散モデルを用いて広範なトレーニングデータを生成するパイプラインを開発する。
拡散モデルを用いて位置ドットマップ上に条件付き画像を生成するのはこれが初めてである。
提案した拡散モデルにおけるカウント損失は,位置ドットマップと生成した群集画像との差を効果的に最小化する。
論文 参考訳(メタデータ) (2024-01-25T07:28:22Z) - Multi-Scene Generalized Trajectory Global Graph Solver with Composite
Nodes for Multiple Object Tracking [61.69892497726235]
複合ノードメッセージパッシングネットワーク(CoNo-Link)は、超長いフレーム情報を関連付けるためのフレームワークである。
オブジェクトをノードとして扱う従来の方法に加えて、このネットワークは情報インタラクションのためのノードとしてオブジェクトトラジェクトリを革新的に扱う。
我々のモデルは、合成ノードを追加することで、より長い時間スケールでより良い予測を学習することができる。
論文 参考訳(メタデータ) (2023-12-14T14:00:30Z) - DDG-Net: Discriminability-Driven Graph Network for Weakly-supervised
Temporal Action Localization [40.521076622370806]
本稿では、曖昧なスニペットとよく設計された接続を持つ識別的スニペットを明示的にモデル化した識別可能性駆動グラフネットワーク(DDG-Net)を提案する。
THUMOS14とActivityNet1.2ベンチマークの実験では、DDG-Netの有効性が示されている。
論文 参考訳(メタデータ) (2023-07-31T05:48:39Z) - Deep Graph Neural Networks via Posteriori-Sampling-based Node-Adaptive Residual Module [65.81781176362848]
グラフニューラルネットワーク(GNN)は、近隣情報収集を通じてグラフ構造化データから学習することができる。
レイヤーの数が増えるにつれて、ノード表現は区別不能になり、オーバー・スムーシング(over-smoothing)と呼ばれる。
我々は,textbfPosterior-Sampling-based, Node-distinguish Residual Module (PSNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - Multi-view Graph Convolutional Networks with Differentiable Node
Selection [29.575611350389444]
差別化可能なノード選択(MGCN-DNS)を備えた多視点グラフ畳み込みネットワーク(Multi-view Graph Convolutional Network)を提案する。
MGCN-DNSは、マルチチャネルグラフ構造データを入力として受け入れ、微分可能なニューラルネットワークを通じてより堅牢なグラフ融合を学ぶことを目的としている。
提案手法の有効性は,最先端手法と厳密な比較により検証した。
論文 参考訳(メタデータ) (2022-12-09T21:48:36Z) - Robust Knowledge Adaptation for Dynamic Graph Neural Networks [61.8505228728726]
動的グラフニューラルネットワークのための強化学習による堅牢な知識適応フレームワークであるAda-DyGNNを提案する。
我々のアプローチは、強化学習による堅牢な知識適応を探求する最初の試みである。
3つのベンチマークデータセットの実験は、Ada-DyGNNが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2022-07-22T02:06:53Z) - Reinforced Neighborhood Selection Guided Multi-Relational Graph Neural
Networks [68.9026534589483]
RioGNNはReinforceed, recursive, flexible neighborhood selection guided multi-relational Graph Neural Network architectureである。
RioGNNは、各関係の個々の重要性の認識により、説明性を高めた差別的なノード埋め込みを学ぶことができる。
論文 参考訳(メタデータ) (2021-04-16T04:30:06Z) - Self-supervised Graph Learning for Recommendation [69.98671289138694]
ユーザ・イテムグラフを用いた自己教師型学習を推奨する。
補助的自己監督タスクは、自己識別によるノード表現学習を強化する。
3つのベンチマークデータセットに関する実証的研究は、SGLの有効性を示す。
論文 参考訳(メタデータ) (2020-10-21T06:35:26Z) - A Robust Hierarchical Graph Convolutional Network Model for
Collaborative Filtering [0.0]
グラフ畳み込みネットワーク(GCN)は大きな成功を収め、レコメンダシステムを含む様々な分野に適用されてきた。
GCNは依然として、トレーニングの困難、過剰なスムーシング、敵の攻撃に対する脆弱性など、多くの問題に悩まされている。
論文 参考訳(メタデータ) (2020-04-30T12:50:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。