論文の概要: Modality-Independent Graph Neural Networks with Global Transformers for Multimodal Recommendation
- arxiv url: http://arxiv.org/abs/2412.13994v1
- Date: Wed, 18 Dec 2024 16:12:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:47:30.399392
- Title: Modality-Independent Graph Neural Networks with Global Transformers for Multimodal Recommendation
- Title(参考訳): マルチモーダルレコメンデーションのためのグローバルトランスを用いたモーダリティ非依存グラフニューラルネットワーク
- Authors: Jun Hu, Bryan Hooi, Bingsheng He, Yinwei Wei,
- Abstract要約: グラフニューラルネットワーク(GNN)はこの領域で有望なパフォーマンスを示している。
我々は,独立した受容場を持つGNNを別々に採用したModality-Independent Receptive Fieldsを用いたGNNを提案する。
以上の結果から,特定のデータセットの特定のモダリティに対して最適な$K$は,GNNのグローバルな情報取得能力を制限する1または2以下であることが示唆された。
- 参考スコア(独自算出の注目度): 59.4356484322228
- License:
- Abstract: Multimodal recommendation systems can learn users' preferences from existing user-item interactions as well as the semantics of multimodal data associated with items. Many existing methods model this through a multimodal user-item graph, approaching multimodal recommendation as a graph learning task. Graph Neural Networks (GNNs) have shown promising performance in this domain. Prior research has capitalized on GNNs' capability to capture neighborhood information within certain receptive fields (typically denoted by the number of hops, $K$) to enrich user and item semantics. We observe that the optimal receptive fields for GNNs can vary across different modalities. In this paper, we propose GNNs with Modality-Independent Receptive Fields, which employ separate GNNs with independent receptive fields for different modalities to enhance performance. Our results indicate that the optimal $K$ for certain modalities on specific datasets can be as low as 1 or 2, which may restrict the GNNs' capacity to capture global information. To address this, we introduce a Sampling-based Global Transformer, which utilizes uniform global sampling to effectively integrate global information for GNNs. We conduct comprehensive experiments that demonstrate the superiority of our approach over existing methods. Our code is publicly available at https://github.com/CrawlScript/MIG-GT.
- Abstract(参考訳): マルチモーダルレコメンデーションシステムは、既存のユーザとイテムのインタラクションや、アイテムに関連するマルチモーダルデータのセマンティクスからユーザの好みを学習することができる。
多くの既存手法がマルチモーダル・ユーザ・テムグラフを通じてこれをモデル化し、グラフ学習タスクとしてマルチモーダル・レコメンデーションにアプローチしている。
グラフニューラルネットワーク(GNN)はこの領域で有望なパフォーマンスを示している。
以前の研究は、ユーザとアイテムのセマンティクスを豊かにするために、GNNが特定の受容領域(通常、ホップの数で表される)で近隣情報をキャプチャする能力を利用していた。
我々は,GNNに対する最適受容場が,様々なモダリティで異なることを観察する。
本稿では,異なるモーダル性を持つ独立受容場を持つGNNを独立受容場として用い,性能を向上させるためのGNNを提案する。
以上の結果から,特定のデータセットの特定のモダリティに対して最適な$K$は,GNNのグローバルな情報取得能力を制限する1または2以下であることが示唆された。
これを解決するために,一様グローバルサンプリングを利用して,GNNのグローバル情報を効果的に統合する,サンプリングベースのGlobal Transformerを提案する。
我々は,既存手法に対するアプローチの優位性を実証する包括的実験を行う。
私たちのコードはhttps://github.com/CrawlScript/MIG-GT.comで公開されています。
関連論文リスト
- DA-MoE: Addressing Depth-Sensitivity in Graph-Level Analysis through Mixture of Experts [70.21017141742763]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理することで人気を集めている。
既存のメソッドは通常、固定数のGNNレイヤを使用して、すべてのグラフの表現を生成する。
本稿では,GNNに2つの改良を加えたDA-MoE法を提案する。
論文 参考訳(メタデータ) (2024-11-05T11:46:27Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - Single-Cell Multimodal Prediction via Transformers [36.525050229323845]
異なるモード間の複雑な相互作用をモデル化するために、scMoFormerを提案する。
scMoFormerは24/1221(Top 2%)のランクでカグル銀メダルを獲得したが、NeurIPS 2022の大会ではアンサンブルは無かった。
論文 参考訳(メタデータ) (2023-03-01T05:03:23Z) - SplitGNN: Splitting GNN for Node Classification with Heterogeneous
Attention [29.307331758493323]
グラフ計算のための分割学習型グラフニューラルネットワーク(SplitGNN)を提案する。
我々のSplitGNNは、孤立した異種地区を協調的に利用できるようにする。
2つの標準公開データセットと実世界のデータセットのノード分類タスクにおけるSplitGNNの有効性を示す。
論文 参考訳(メタデータ) (2023-01-27T12:08:44Z) - Generalizing Aggregation Functions in GNNs:High-Capacity GNNs via
Nonlinear Neighborhood Aggregators [14.573383849211773]
グラフニューラルネットワーク(GNN)は多くのグラフ学習タスクで大きな成功を収めている。
既存のGNNは主に、メッセージの伝搬に線形近傍集約(平均,sum)または最大アグリゲータ(max aggregator)を採用する。
我々は、GNNにおけるメッセージ伝達機構を再考し、GNNにおける近隣情報集約のための一般的な非線形アグリゲータの開発を目指す。
論文 参考訳(メタデータ) (2022-02-18T11:49:59Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - Meta-Aggregator: Learning to Aggregate for 1-bit Graph Neural Networks [127.32203532517953]
我々は,GNNパラメータとグラフ特徴をバイナライズするバニラ1ビットフレームワークを開発した。
軽量なアーキテクチャにもかかわらず、我々はこのバニラフレームワークがグラフトポロジを区別するのに十分な差別力に悩まされていることを観察した。
この発見は、バニラ二項化GNNの表現力を向上させるためにメタアグリゲータを考案する動機となる。
論文 参考訳(メタデータ) (2021-09-27T08:50:37Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。