論文の概要: An Adaptive Graph Pre-training Framework for Localized Collaborative
Filtering
- arxiv url: http://arxiv.org/abs/2112.07191v1
- Date: Tue, 14 Dec 2021 06:53:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 17:01:32.025680
- Title: An Adaptive Graph Pre-training Framework for Localized Collaborative
Filtering
- Title(参考訳): 局所的協調フィルタリングのための適応グラフ事前学習フレームワーク
- Authors: Yiqi Wang, Chaozhuo Li, Zheng Liu, Mingzheng Li, Jiliang Tang, Xing
Xie, Lei Chen, Philip S. Yu
- Abstract要約: 局所的協調フィルタリング(ADAPT)のための適応グラフ事前学習フレームワークを提案する。
ADAPTは、異なるグラフにまたがる共通知識と、各グラフの特異性の両方をキャプチャする。
ユーザ/イテムの埋め込みを転送する必要はなく、異なるグラフにまたがる共通知識と各グラフのユニークさの両方をキャプチャできる。
- 参考スコア(独自算出の注目度): 79.17319280791237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have been widely applied in the recommendation
tasks and have obtained very appealing performance. However, most GNN-based
recommendation methods suffer from the problem of data sparsity in practice.
Meanwhile, pre-training techniques have achieved great success in mitigating
data sparsity in various domains such as natural language processing (NLP) and
computer vision (CV). Thus, graph pre-training has the great potential to
alleviate data sparsity in GNN-based recommendations. However, pre-training
GNNs for recommendations face unique challenges. For example, user-item
interaction graphs in different recommendation tasks have distinct sets of
users and items, and they often present different properties. Therefore, the
successful mechanisms commonly used in NLP and CV to transfer knowledge from
pre-training tasks to downstream tasks such as sharing learned embeddings or
feature extractors are not directly applicable to existing GNN-based
recommendations models. To tackle these challenges, we delicately design an
adaptive graph pre-training framework for localized collaborative filtering
(ADAPT). It does not require transferring user/item embeddings, and is able to
capture both the common knowledge across different graphs and the uniqueness
for each graph. Extensive experimental results have demonstrated the
effectiveness and superiority of ADAPT.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)はレコメンデーションタスクに広く適用されており、非常に魅力的な性能を得ている。
しかし、ほとんどのGNNベースのレコメンデーション手法は、実際にデータ空間の問題に悩まされている。
一方、事前学習技術は、自然言語処理(NLP)やコンピュータビジョン(CV)など、さまざまな領域におけるデータの分散を緩和することに成功した。
このように、グラフ事前学習は、GNNベースのレコメンデーションにおいてデータの分散を緩和する大きな可能性を秘めている。
しかし、レコメンデーションのための事前トレーニングGNNは、ユニークな課題に直面している。
例えば、異なるレコメンデーションタスクにおけるユーザとイテムの相互作用グラフは、異なるユーザとアイテムのセットを持ち、しばしば異なるプロパティを示す。
したがって、学習した埋め込みや特徴抽出器などの下流タスクに事前学習タスクから知識を伝達するために、NLPやCVで一般的に用いられる成功メカニズムは、既存のGNNベースのレコメンデーションモデルには直接適用されない。
これらの課題に取り組むため,我々は局所的協調フィルタリング(adapt)のための適応グラフ事前学習フレームワークを繊細に設計する。
ユーザ/テーマの埋め込みを転送する必要はなく、異なるグラフにまたがる共通知識と各グラフのユニークさの両方を捉えることができる。
ADAPTの有効性と優位性について検討した。
関連論文リスト
- Neural Graph Collaborative Filtering Using Variational Inference [19.80976833118502]
本稿では,変分グラフオートエンコーダを用いて学習した表現を組み込む新しいフレームワークとして,変分埋め込み協調フィルタリング(GVECF)を導入する。
提案手法は,テストデータに対するリコールを最大13.78%改善する。
論文 参考訳(メタデータ) (2023-11-20T15:01:33Z) - Efficient Heterogeneous Graph Learning via Random Projection [65.65132884606072]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Universal Prompt Tuning for Graph Neural Networks [10.997705667435053]
我々は,任意の事前学習戦略の下で,事前学習したGNNモデルに対して,GPF(Graph Prompt Feature)と呼ばれる普遍的なプロンプトベースのチューニング手法を提案する。
GPFは入力グラフの特徴空間上で動作し、理論的には任意の形式のプロンプト関数に等価な効果を達成できる。
本手法は,事前学習戦略を応用したモデルに適用した場合,既存の特殊プロンプトベースのチューニング手法よりも大幅に優れる。
論文 参考訳(メタデータ) (2022-09-30T05:19:27Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Graph Trend Networks for Recommendations [34.06649831739749]
推薦システムの鍵は、ユーザーが過去のオンライン行動に基づいてアイテムと対話する可能性を予測することである。
これらのユーザ-イテム相互作用を利用するために、ユーザ-イテム相互作用をユーザ-イテム二部グラフとして考慮する取り組みが増えている。
彼らの成功にもかかわらず、既存のGNNベースのレコメンデーターシステムは、信頼できない振る舞いによって引き起こされる相互作用を見逃している。
本稿では,グラフトレンドネットワークによるレコメンデーション(GTN)を提案する。
論文 参考訳(メタデータ) (2021-08-12T06:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。