論文の概要: ITEM: Improving Training and Evaluation of Message-Passing based GNNs for top-k recommendation
- arxiv url: http://arxiv.org/abs/2407.07912v1
- Date: Wed, 3 Jul 2024 13:35:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 13:58:01.785405
- Title: ITEM: Improving Training and Evaluation of Message-Passing based GNNs for top-k recommendation
- Title(参考訳): ITEM:トップkレコメンデーションのためのメッセージパッシングに基づくGNNのトレーニングと評価の改善
- Authors: Yannis Karmim, Elias Ramzi, Raphaël Fournier-S'niehotta, Nicolas Thome,
- Abstract要約: グラフニューラルネットワーク(GNN)はトップkレコメンデーションタスクで注目されている。
GNNは、NDCG@kやRecall@kといったランキングベースのメトリクスで評価される。
評価指標を直接最適化するためのランキング損失関数の利用について検討する。
- 参考スコア(独自算出の注目度): 15.643170704979465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs), especially message-passing-based models, have become prominent in top-k recommendation tasks, outperforming matrix factorization models due to their ability to efficiently aggregate information from a broader context. Although GNNs are evaluated with ranking-based metrics, e.g NDCG@k and Recall@k, they remain largely trained with proxy losses, e.g the BPR loss. In this work we explore the use of ranking loss functions to directly optimize the evaluation metrics, an area not extensively investigated in the GNN community for collaborative filtering. We take advantage of smooth approximations of the rank to facilitate end-to-end training of GNNs and propose a Personalized PageRank-based negative sampling strategy tailored for ranking loss functions. Moreover, we extend the evaluation of GNN models for top-k recommendation tasks with an inductive user-centric protocol, providing a more accurate reflection of real-world applications. Our proposed method significantly outperforms the standard BPR loss and more advanced losses across four datasets and four recent GNN architectures while also exhibiting faster training. Demonstrating the potential of ranking loss functions in improving GNN training for collaborative filtering tasks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)、特にメッセージパスベースのモデルは、より広いコンテキストから情報を効率的に集約する能力により、行列分解モデルを上回るトップkレコメンデーションタスクで顕著になっている。
GNNは、NDCG@kやRecall@kのようなランキングベースのメトリクスで評価されているが、BPR損失など、プロキシ損失を主にトレーニングしている。
本研究では,評価指標を直接最適化するためのランキング損失関数の利用について検討する。
我々は、ランクのスムーズな近似を利用して、GNNのエンドツーエンドトレーニングを促進するとともに、ランキング損失関数に適したパーソナライズされたPageRankベースのネガティブサンプリング戦略を提案する。
さらに、誘導型ユーザ中心プロトコルを用いてトップkレコメンデーションタスクのためのGNNモデルの評価を拡張し、現実世界のアプリケーションのより正確なリフレクションを提供する。
提案手法は、4つのデータセットと4つのGNNアーキテクチャにまたがる標準的なBPR損失と、より高度な損失を著しく上回りながら、より高速なトレーニングを行う。
協調フィルタリング作業におけるGNNトレーニング改善におけるランキング損失関数の可能性を示す。
関連論文リスト
- Online GNN Evaluation Under Test-time Graph Distribution Shifts [92.4376834462224]
オンラインGNN評価という新たな研究課題は、よく訓練されたGNNが現実世界の未ラベルグラフに一般化する能力について、貴重な洞察を提供することを目的としている。
我々は、よく訓練されたGNNモデルのテスト時間一般化誤差を推定するために、LeBeDと呼ばれる効果的な学習行動不一致スコアを開発する。
論文 参考訳(メタデータ) (2024-03-15T01:28:08Z) - Class-Balanced and Reinforced Active Learning on Graphs [13.239043161351482]
グラフニューラルネットワーク(GNN)は、ノード分類、リンク予測、グラフ分類など、さまざまなアプリケーションで大きな成功を収めている。
GNNのアクティブラーニングは、ラベルのないデータから貴重なサンプルを照会して、GNNのパフォーマンスを低コストで最大化することを目的としている。
GNNにおける強化能動学習のための既存のアルゴリズムは、特に高度に歪んだクラスシナリオにおいて、高度に不均衡なクラス分布をもたらす可能性がある。
我々は、GNNのための新しいクラスバランスと強化されたアクティブラーニングフレームワーク、すなわちGCBRを提案し、クラスバランスと情報ノードを取得するための最適なポリシーを学習する。
論文 参考訳(メタデータ) (2024-02-15T16:37:14Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Distributed Graph Neural Network Training: A Survey [51.77035975191926]
グラフニューラルネットワーク(GNN)は、グラフに基づいてトレーニングされたディープラーニングモデルの一種で、さまざまな領域にうまく適用されている。
GNNの有効性にもかかわらず、GNNが大規模グラフに効率的にスケールすることは依然として困難である。
治療法として、分散コンピューティングは大規模GNNをトレーニングするための有望なソリューションとなる。
論文 参考訳(メタデータ) (2022-11-01T01:57:00Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - GraphFramEx: Towards Systematic Evaluation of Explainability Methods for Graph Neural Networks [15.648750523827616]
3つの異なる「ユーザニーズ」に対する説明可能性を考慮したGNN説明可能性のための最初の体系的評価フレームワークを提案する。
不適切なが広く使われている合成ベンチマークでは、パーソナライズされたPageRankのような驚くほど浅いテクニックが最小限の計算時間で最高のパフォーマンスを持つ。
しかし,グラフ構造が複雑で有意義な特徴を持つ場合,評価基準に従って勾配法が最適である。
論文 参考訳(メタデータ) (2022-06-20T09:33:12Z) - An Adaptive Graph Pre-training Framework for Localized Collaborative
Filtering [79.17319280791237]
局所的協調フィルタリング(ADAPT)のための適応グラフ事前学習フレームワークを提案する。
ADAPTは、異なるグラフにまたがる共通知識と、各グラフの特異性の両方をキャプチャする。
ユーザ/イテムの埋め込みを転送する必要はなく、異なるグラフにまたがる共通知識と各グラフのユニークさの両方をキャプチャできる。
論文 参考訳(メタデータ) (2021-12-14T06:53:13Z) - CAP: Co-Adversarial Perturbation on Weights and Features for Improving
Generalization of Graph Neural Networks [59.692017490560275]
敵の訓練は、敵の攻撃に対するモデルの堅牢性を改善するために広く実証されてきた。
グラフ解析問題におけるGNNの一般化能力をどのように改善するかは、まだ不明である。
我々は、重みと特徴量の観点から共振器摂動(CAP)最適化問題を構築し、重みと特徴の損失を交互に平らにする交互対振器摂動アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-28T02:28:13Z) - Self-Enhanced GNN: Improving Graph Neural Networks Using Model Outputs [20.197085398581397]
グラフニューラルネットワーク(GNN)は最近、グラフベースのタスクにおける優れたパフォーマンスのために、多くの注目を集めている。
本稿では,既存のGNNモデルの出力を用いて,入力データの品質を向上させる自己強化型GNN(SEG)を提案する。
SEGは、GCN、GAT、SGCといったよく知られたGNNモデルのさまざまなデータセットのパフォーマンスを一貫して改善する。
論文 参考訳(メタデータ) (2020-02-18T12:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。