論文の概要: Hop Sampling: A Simple Regularized Graph Learning for Non-Stationary
Environments
- arxiv url: http://arxiv.org/abs/2006.14897v2
- Date: Thu, 20 Aug 2020 05:47:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 21:05:13.733207
- Title: Hop Sampling: A Simple Regularized Graph Learning for Non-Stationary
Environments
- Title(参考訳): ホップサンプリング:非定常環境のための単純な正規化グラフ学習
- Authors: Young-Jin Park, Kyuyong Shin, Kyung-Min Kim
- Abstract要約: グラフ表現学習は、ソーシャルネットワーク分析など、幅広いアプリケーションで人気を集めている。
グラフニューラルネットワーク(GNN)を現実のアプリケーションに適用することは、静止しない環境のため、依然として難しい。
ホップサンプリング(Hop Smpling)は,GNNの過剰漁を効果的に防止できる簡単な正規化手法である。
- 参考スコア(独自算出の注目度): 12.251253742049437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph representation learning is gaining popularity in a wide range of
applications, such as social networks analysis, computational biology, and
recommender systems. However, different with positive results from many
academic studies, applying graph neural networks (GNNs) in a real-world
application is still challenging due to non-stationary environments. The
underlying distribution of streaming data changes unexpectedly, resulting in
different graph structures (a.k.a., concept drift). Therefore, it is essential
to devise a robust graph learning technique so that the model does not overfit
to the training graphs. In this work, we present Hop Sampling, a
straightforward regularization method that can effectively prevent GNNs from
overfishing. The hop sampling randomly selects the number of propagation steps
rather than fixing it, and by doing so, it encourages the model to learn
meaningful node representation for all intermediate propagation layers and to
experience a variety of plausible graphs that are not in the training set.
Particularly, we describe the use case of our method in recommender systems, a
representative example of the real-world non-stationary case. We evaluated hop
sampling on a large-scale real-world LINE dataset and conducted an online A/B/n
test in LINE Coupon recommender systems of LINE Wallet Tab. Experimental
results demonstrate that the proposed scheme improves the prediction accuracy
of GNNs. We observed hop sampling provides 7.97% and 16.93% improvements for
NDCG and MAP compared to non-regularized GNN models in our online service.
Furthermore, models using hop sampling alleviate the oversmoothing issue in
GNNs enabling a deeper model as well as more diversified representation.
- Abstract(参考訳): グラフ表現学習は、ソーシャルネットワーク分析、計算生物学、推薦システムなど、幅広いアプリケーションで人気を集めている。
しかし、多くの学術研究の肯定的な結果と異なり、現実のアプリケーションにグラフニューラルネットワーク(GNN)を適用することは、非定常環境のため依然として難しい。
ストリーミングデータの基盤となる分布は予期せず変化し、異なるグラフ構造(つまり概念ドリフト)をもたらす。
したがって、モデルがトレーニンググラフに過剰に適合しないように、堅牢なグラフ学習手法を考案することが不可欠である。
本研究は,GNNの過剰漁を効果的に防止できる簡単な正規化手法であるHop Smplingを提案する。
ホップサンプリングは、修正ではなく伝播ステップの数をランダムに選択し、それによって、すべての中間伝播層に対して有意義なノード表現を学習し、トレーニングセットにない様々な可算グラフを経験することをモデルに促す。
特に,実世界の非定常ケースの代表例であるレコメンダシステムにおいて,本手法のユースケースについて述べる。
大規模な実世界のLINEデータセット上でホップサンプリングを評価し,LINE Couponの推薦システムでオンラインA/B/nテストを行った。
実験の結果,提案手法はGNNの予測精度を向上することが示された。
オンラインサービスにおける非正規化GNNモデルと比較して, ホップサンプリングでは, NDCGとMAPが7.97%, 16.93%改善している。
さらに、ホップサンプリングを用いたモデルは、より深いモデルとより多様な表現を可能にするgnnの過剰な問題を軽減する。
関連論文リスト
- GOODAT: Towards Test-time Graph Out-of-Distribution Detection [103.40396427724667]
グラフニューラルネットワーク(GNN)は、さまざまな領域にわたるグラフデータのモデリングに広く応用されている。
近年の研究では、特定のモデルのトレーニングや、よく訓練されたGNN上でのデータ修正に重点を置いて、OOD検出のグラフを調査している。
本稿では、GNNアーキテクチャのトレーニングデータと修正から独立して動作する、データ中心、教師なし、プラグアンドプレイのソリューションを提案する。
論文 参考訳(メタデータ) (2024-01-10T08:37:39Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - A Local Graph Limits Perspective on Sampling-Based GNNs [7.601210044390688]
本稿では,グラフニューラルネットワーク(GNN)を大規模入力グラフ上で学習するための理論的枠組みを提案する。
大規模な入力グラフの小さなサンプルを用いてサンプリングベースGNNのトレーニングから得られたパラメータが、グラフ全体において同じアーキテクチャをトレーニングした結果の$epsilon$近傍にあることを証明した。
論文 参考訳(メタデータ) (2023-10-17T02:58:49Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - Scalable Consistency Training for Graph Neural Networks via
Self-Ensemble Self-Distillation [13.815063206114713]
グラフニューラルネットワーク(GNN)の精度を向上させるための新しい一貫性トレーニング手法を提案する。
対象ノードに対して、異なる近傍展開を生成し、予測平均の知識をGNNに蒸留する。
提案手法は, 推定した近傍サンプルの予測値に近似し, 実質的には少数のサンプルしか必要としない。
論文 参考訳(メタデータ) (2021-10-12T19:24:42Z) - Stable Prediction on Graphs with Agnostic Distribution Shift [105.12836224149633]
グラフニューラルネットワーク(GNN)は、ランダムにトレーニングとテストデータを分離した様々なグラフタスクに有効であることが示されている。
しかし、実際のアプリケーションでは、トレーニンググラフの分布はテストグラフとは異なるかもしれない。
本稿では,グラフ上での局所的およびグローバル的に安定な学習と予測を可能にする,GNNのための新しい安定な予測フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-08T02:45:47Z) - Scalable Graph Neural Network Training: The Case for Sampling [4.9201378771958675]
グラフニューラルネットワーク(Graph Neural Networks、GNN)は、グラフ上で学習を行うディープニューラルネットワークアーキテクチャの新しい、ますます普及しているファミリです。
グラフデータの不規則性から、効率的にトレーニングすることは難しい。
文献には、全グラフとサンプルベースのトレーニングという2つの異なるアプローチが登場した。
論文 参考訳(メタデータ) (2021-05-05T20:44:10Z) - Bayesian Graph Neural Networks with Adaptive Connection Sampling [62.51689735630133]
グラフニューラルネットワーク(GNN)における適応接続サンプリングのための統一的なフレームワークを提案する。
提案フレームワークは,深部GNNの過度なスムース化や過度に適合する傾向を緩和するだけでなく,グラフ解析タスクにおけるGNNによる不確実性の学習を可能にする。
論文 参考訳(メタデータ) (2020-06-07T07:06:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。