論文の概要: Bayesian Graph Neural Networks with Adaptive Connection Sampling
- arxiv url: http://arxiv.org/abs/2006.04064v3
- Date: Tue, 30 Jun 2020 22:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 07:27:57.994775
- Title: Bayesian Graph Neural Networks with Adaptive Connection Sampling
- Title(参考訳): 適応接続サンプリングを用いたベイズグラフニューラルネットワーク
- Authors: Arman Hasanzadeh, Ehsan Hajiramezanali, Shahin Boluki, Mingyuan Zhou,
Nick Duffield, Krishna Narayanan, Xiaoning Qian
- Abstract要約: グラフニューラルネットワーク(GNN)における適応接続サンプリングのための統一的なフレームワークを提案する。
提案フレームワークは,深部GNNの過度なスムース化や過度に適合する傾向を緩和するだけでなく,グラフ解析タスクにおけるGNNによる不確実性の学習を可能にする。
- 参考スコア(独自算出の注目度): 62.51689735630133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a unified framework for adaptive connection sampling in graph
neural networks (GNNs) that generalizes existing stochastic regularization
methods for training GNNs. The proposed framework not only alleviates
over-smoothing and over-fitting tendencies of deep GNNs, but also enables
learning with uncertainty in graph analytic tasks with GNNs. Instead of using
fixed sampling rates or hand-tuning them as model hyperparameters in existing
stochastic regularization methods, our adaptive connection sampling can be
trained jointly with GNN model parameters in both global and local fashions.
GNN training with adaptive connection sampling is shown to be mathematically
equivalent to an efficient approximation of training Bayesian GNNs.
Experimental results with ablation studies on benchmark datasets validate that
adaptively learning the sampling rate given graph training data is the key to
boost the performance of GNNs in semi-supervised node classification, less
prone to over-smoothing and over-fitting with more robust prediction.
- Abstract(参考訳): 本稿では,既存の確率正規化手法を一般化したグラフニューラルネットワーク(GNN)における適応的接続サンプリングのための統一的なフレームワークを提案する。
提案フレームワークは,深部GNNの過度なスムース化や過度に適合する傾向を緩和するだけでなく,グラフ解析タスクにおけるGNNによる不確実性の学習を可能にする。
既存の確率正規化手法では,固定サンプリング率やモデルハイパーパラメータとして手動チューニングを行う代わりに,GNNモデルパラメータとグローバルおよびローカルの両方で協調して適応接続サンプリングを訓練することができる。
適応的な接続サンプリングによるGNNトレーニングは,ベイジアンGNNの効率的な近似と数学的に等価であることが示されている。
グラフトレーニングデータに与えられたサンプリングレートを適応的に学習することが、半教師付きノード分類におけるgnnの性能向上の鍵であり、過剰なスムーシングやより堅牢な予測による過剰フィッティングを減少させる。
関連論文リスト
- Accurate and Scalable Estimation of Epistemic Uncertainty for Graph
Neural Networks [40.95782849532316]
固有GNNの不確実性推定を改善するための新しいトレーニングフレームワークを提案する。
我々のフレームワークは、新しいグラフアンカー戦略を通じて、データをグラフデータに中心付けるという原則に適応する。
本研究は,GNNの不確実性推定に関する知見を提供し,信頼度推定におけるG-$Delta$UQの有用性を実証する。
論文 参考訳(メタデータ) (2024-01-07T00:58:33Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - A GAN Approach for Node Embedding in Heterogeneous Graphs Using Subgraph
Sampling [35.94125831564648]
我々の研究は、グラフニューラルネットワーク(GNN)を用いた異種グラフのクラス不均衡問題に対処する。
本稿では,GAN(Generative Adversarial Networks)とGNN(Greative Adversarial Networks)の長所を結合し,データセットを効果的にバランスさせる合成ノードとエッジを作成する手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T16:52:20Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Graph Neural Network Based Node Deployment for Throughput Enhancement [20.56966053013759]
本稿では,ネットワークノード配置問題に対する新しいグラフニューラルネットワーク(GNN)手法を提案する。
提案手法の理論的サポートとして,表現型GNNが関数値とトラフィック置換の両方を近似する能力を持つことを示す。
論文 参考訳(メタデータ) (2022-08-19T08:06:28Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth [57.10183643449905]
グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
論文 参考訳(メタデータ) (2021-05-10T17:59:01Z) - Stochastic Graph Neural Networks [123.39024384275054]
グラフニューラルネットワーク(GNN)は、分散エージェント調整、制御、計画に応用したグラフデータの非線形表現をモデル化する。
現在のGNNアーキテクチャは理想的なシナリオを前提として,環境やヒューマンファクタ,あるいは外部攻撃によるリンク変動を無視している。
これらの状況において、GNNは、トポロジカルなランダム性を考慮していない場合、その分散タスクに対処することができない。
論文 参考訳(メタデータ) (2020-06-04T08:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。