論文の概要: An Adaptive Graph Pre-training Framework for Localized Collaborative
Filtering
- arxiv url: http://arxiv.org/abs/2112.07191v1
- Date: Tue, 14 Dec 2021 06:53:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 17:01:32.025680
- Title: An Adaptive Graph Pre-training Framework for Localized Collaborative
Filtering
- Title(参考訳): 局所的協調フィルタリングのための適応グラフ事前学習フレームワーク
- Authors: Yiqi Wang, Chaozhuo Li, Zheng Liu, Mingzheng Li, Jiliang Tang, Xing
Xie, Lei Chen, Philip S. Yu
- Abstract要約: 局所的協調フィルタリング(ADAPT)のための適応グラフ事前学習フレームワークを提案する。
ADAPTは、異なるグラフにまたがる共通知識と、各グラフの特異性の両方をキャプチャする。
ユーザ/イテムの埋め込みを転送する必要はなく、異なるグラフにまたがる共通知識と各グラフのユニークさの両方をキャプチャできる。
- 参考スコア(独自算出の注目度): 79.17319280791237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have been widely applied in the recommendation
tasks and have obtained very appealing performance. However, most GNN-based
recommendation methods suffer from the problem of data sparsity in practice.
Meanwhile, pre-training techniques have achieved great success in mitigating
data sparsity in various domains such as natural language processing (NLP) and
computer vision (CV). Thus, graph pre-training has the great potential to
alleviate data sparsity in GNN-based recommendations. However, pre-training
GNNs for recommendations face unique challenges. For example, user-item
interaction graphs in different recommendation tasks have distinct sets of
users and items, and they often present different properties. Therefore, the
successful mechanisms commonly used in NLP and CV to transfer knowledge from
pre-training tasks to downstream tasks such as sharing learned embeddings or
feature extractors are not directly applicable to existing GNN-based
recommendations models. To tackle these challenges, we delicately design an
adaptive graph pre-training framework for localized collaborative filtering
(ADAPT). It does not require transferring user/item embeddings, and is able to
capture both the common knowledge across different graphs and the uniqueness
for each graph. Extensive experimental results have demonstrated the
effectiveness and superiority of ADAPT.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)はレコメンデーションタスクに広く適用されており、非常に魅力的な性能を得ている。
しかし、ほとんどのGNNベースのレコメンデーション手法は、実際にデータ空間の問題に悩まされている。
一方、事前学習技術は、自然言語処理(NLP)やコンピュータビジョン(CV)など、さまざまな領域におけるデータの分散を緩和することに成功した。
このように、グラフ事前学習は、GNNベースのレコメンデーションにおいてデータの分散を緩和する大きな可能性を秘めている。
しかし、レコメンデーションのための事前トレーニングGNNは、ユニークな課題に直面している。
例えば、異なるレコメンデーションタスクにおけるユーザとイテムの相互作用グラフは、異なるユーザとアイテムのセットを持ち、しばしば異なるプロパティを示す。
したがって、学習した埋め込みや特徴抽出器などの下流タスクに事前学習タスクから知識を伝達するために、NLPやCVで一般的に用いられる成功メカニズムは、既存のGNNベースのレコメンデーションモデルには直接適用されない。
これらの課題に取り組むため,我々は局所的協調フィルタリング(adapt)のための適応グラフ事前学習フレームワークを繊細に設計する。
ユーザ/テーマの埋め込みを転送する必要はなく、異なるグラフにまたがる共通知識と各グラフのユニークさの両方を捉えることができる。
ADAPTの有効性と優位性について検討した。
関連論文リスト
- GraphLoRA: Structure-Aware Contrastive Low-Rank Adaptation for Cross-Graph Transfer Learning [17.85404473268992]
グラフニューラルネットワーク(GNN)は、様々なグラフ解析タスクを扱うのに顕著な習熟度を示した。
汎用性にもかかわらず、GNNはトランスファービリティにおいて重大な課題に直面し、現実のアプリケーションでの利用を制限している。
グラフ領域によく訓練されたGNNを転送するための有効かつパラメータ効率のよいGraphLoRAを提案する。
論文 参考訳(メタデータ) (2024-09-25T06:57:42Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Graph Trend Networks for Recommendations [34.06649831739749]
推薦システムの鍵は、ユーザーが過去のオンライン行動に基づいてアイテムと対話する可能性を予測することである。
これらのユーザ-イテム相互作用を利用するために、ユーザ-イテム相互作用をユーザ-イテム二部グラフとして考慮する取り組みが増えている。
彼らの成功にもかかわらず、既存のGNNベースのレコメンデーターシステムは、信頼できない振る舞いによって引き起こされる相互作用を見逃している。
本稿では,グラフトレンドネットワークによるレコメンデーション(GTN)を提案する。
論文 参考訳(メタデータ) (2021-08-12T06:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。