論文の概要: GraphTransfer: A Generic Feature Fusion Framework for Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2408.05792v1
- Date: Sun, 11 Aug 2024 14:47:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 17:51:38.894059
- Title: GraphTransfer: A Generic Feature Fusion Framework for Collaborative Filtering
- Title(参考訳): GraphTransfer: 協調フィルタリングのためのジェネリックフィーチャーフュージョンフレームワーク
- Authors: Jiafeng Xia, Dongsheng Li, Hansu Gu, Tun Lu, Ning Gu,
- Abstract要約: 我々は,GNNに基づく協調フィルタリングのための簡易かつ普遍的な機能融合フレームワークであるGraphTransferを提案する。
提案手法は,GNNを用いて,ユーザ-テム相互作用グラフからまずグラフ特徴と補助特徴を抽出することにより,異なるタイプの特徴を正確に融合する。
公開データセットに関する理論的分析と実験は、GraphTransferがCFタスクにおける他の機能融合メソッドよりも優れていることを示している。
- 参考スコア(独自算出の注目度): 23.359028687426925
- License:
- Abstract: Graph Neural Networks (GNNs) have demonstrated effectiveness in collaborative filtering tasks due to their ability to extract powerful structural features. However, combining the graph features extracted from user-item interactions and auxiliary features extracted from user genres and item properties remains a challenge. Currently available fusion methods face two major issues: 1) simple methods such as concatenation and summation are generic, but not accurate in capturing feature relationships; 2) task-specific methods like attention mechanisms and meta paths may not be suitable for general feature fusion. To address these challenges, we present GraphTransfer, a simple but universal feature fusion framework for GNN-based collaborative filtering. Our method accurately fuses different types of features by first extracting graph features from the user-item interaction graph and auxiliary features from users and items using GCN. The proposed cross fusion module then effectively bridges the semantic gaps between the interaction scores of different features. Theoretical analysis and experiments on public datasets show that GraphTransfer outperforms other feature fusion methods in CF tasks. Additionally, we demonstrate the universality of our framework via empirical studies in three other scenarios, showing that GraphTransfer leads to significant improvements in the performance of CF algorithms.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、強力な構造的特徴を抽出できるため、協調フィルタリングタスクの有効性を実証している。
しかし,ユーザ-イテムインタラクションから抽出したグラフ特徴と,ユーザジャンルやアイテム特性から抽出した補助特徴とを組み合わせることは,依然として課題である。
現在利用可能なフュージョンメソッドには2つの大きな問題がある。
1) 連結や要約のような単純な方法が一般的であるが,特徴的関係を捉える上では正確ではない。
2)注意機構やメタパスといったタスク固有の手法は,一般的な特徴融合には適さない可能性がある。
これらの課題に対処するために、GNNベースの協調フィルタリングのためのシンプルだが普遍的な機能融合フレームワークであるGraphTransferを提案する。
提案手法は,まずユーザと対話グラフからグラフ特徴を抽出し,GCNを用いてユーザやアイテムから補助特徴を抽出することにより,異なるタイプの特徴を正確に融合する。
提案したクロスフュージョンモジュールは、異なる特徴の相互作用スコア間のセマンティックギャップを効果的に橋渡しする。
公開データセットに関する理論的分析と実験は、GraphTransferがCFタスクにおける他の機能融合メソッドよりも優れていることを示している。
さらに、他の3つのシナリオでの実証的研究を通じて、我々のフレームワークの普遍性を実証し、GraphTransferがCFアルゴリズムの性能を大幅に改善することを示した。
関連論文リスト
- Amplify Graph Learning for Recommendation via Sparsity Completion [16.32861024767423]
グラフ学習モデルは、協調フィルタリング(CF)ベースのレコメンデーションシステムに広くデプロイされている。
データ疎度の問題により、元の入力のグラフ構造は潜在的な肯定的な嗜好エッジを欠いている。
AGL-SC(Amplify Graph Learning framework)を提案する。
論文 参考訳(メタデータ) (2024-06-27T08:26:20Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Learning a Graph Neural Network with Cross Modality Interaction for
Image Fusion [23.296468921842948]
近赤外・可視画像融合は、多モードイメージング技術の分野において、徐々に重要なフォークであることが証明されている。
本稿では,IGNetと呼ばれる,核融合のためのクロスモーダル間の対話型グラフニューラルネットワーク(GNN)アーキテクチャを提案する。
我々のIGNetは、平均2.59%のmAP@.5と7.77%のmIoUを検出およびセグメンテーションで、視覚的に魅力的な融合画像を生成することができる。
論文 参考訳(メタデータ) (2023-08-07T02:25:06Z) - Challenging the Myth of Graph Collaborative Filtering: a Reasoned and Reproducibility-driven Analysis [50.972595036856035]
本稿では,6つの人気グラフと最近のグラフ推薦モデルの結果を再現するコードを提案する。
これらのグラフモデルと従来の協調フィルタリングモデルを比較する。
ユーザの近所からの情報フローを調べることにより,データセット構造における内在的特徴にどのようなモデルが影響するかを同定することを目的とする。
論文 参考訳(メタデータ) (2023-08-01T09:31:44Z) - A Simple and Scalable Graph Neural Network for Large Directed Graphs [11.792826520370774]
入力グラフ内のノード表現とエッジ方向認識の様々な組み合わせについて検討する。
そこで本研究では,A2DUGを簡易かつ包括的に分類する手法を提案する。
我々は、A2DUGが様々なデータセットで安定して動作し、最先端の手法と比較して11.29まで精度が向上することを示した。
論文 参考訳(メタデータ) (2023-06-14T06:24:58Z) - Training Free Graph Neural Networks for Graph Matching [103.45755859119035]
TFGMは、グラフニューラルネットワーク(GNN)ベースのグラフマッチングのパフォーマンスをトレーニングなしで向上するフレームワークである。
TFGMをさまざまなGNNに適用することは、ベースラインよりも有望な改善を示している。
論文 参考訳(メタデータ) (2022-01-14T09:04:46Z) - Joint Graph Learning and Matching for Semantic Feature Correspondence [69.71998282148762]
本稿では,グラフマッチングを向上するための信頼度の高いグラフ構造を探索するために,GLAMという共用電子グラフ学習とマッチングネットワークを提案する。
提案手法は,3つの人気ビジュアルマッチングベンチマーク (Pascal VOC, Willow Object, SPair-71k) で評価される。
すべてのベンチマークにおいて、従来の最先端のグラフマッチング手法よりも大きなマージンを達成している。
論文 参考訳(メタデータ) (2021-09-01T08:24:02Z) - GraphFM: Graph Factorization Machines for Feature Interaction Modeling [27.307086868266012]
本稿では,グラフ構造の特徴を自然に表現し,グラフ因子化マシン(GraphFM)を提案する。
特に,有用な特徴間相互作用を選択し,特徴間のエッジとして定式化する機構を設計する。
提案モデルでは, FMの相互作用関数をグラフニューラルネットワーク(GNN)の特徴集約戦略に統合する。
論文 参考訳(メタデータ) (2021-05-25T12:10:54Z) - Learnable Graph Matching: Incorporating Graph Partitioning with Deep
Feature Learning for Multiple Object Tracking [58.30147362745852]
フレーム間のデータアソシエーションは、Multiple Object Tracking(MOT)タスクの中核にある。
既存の手法は、主にトラックレットとフレーム内検出の間のコンテキスト情報を無視する。
そこで本研究では,学習可能なグラフマッチング手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T08:58:45Z) - Deep Reinforcement Learning of Graph Matching [63.469961545293756]
ノードとペアの制約下でのグラフマッチング(GM)は、最適化からコンピュータビジョンまでの領域におけるビルディングブロックである。
GMのための強化学習ソルバを提案する。
rgmはペアワイズグラフ間のノード対応を求める。
本手法は,フロントエンドの特徴抽出と親和性関数学習に焦点をあてるという意味において,従来のディープグラフマッチングモデルと異なる。
論文 参考訳(メタデータ) (2020-12-16T13:48:48Z) - Improving Coreference Resolution by Leveraging Entity-Centric Features
with Graph Neural Networks and Second-order Inference [12.115691569576345]
Coreferentの言及は通常、テキスト全体においてはるかに分散しており、エンティティレベルの機能を組み込むのが困難である。
本稿では,エンティティ中心の情報をキャプチャ可能なグラフニューラルネットワークに基づくコア参照分解法を提案する。
グローバル推論アルゴリズムは、クラスタの参照を一貫したグループに最適化する。
論文 参考訳(メタデータ) (2020-09-10T02:22:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。