論文の概要: Graph Neural Network Sensitivity Under Probabilistic Error Model
- arxiv url: http://arxiv.org/abs/2203.07831v3
- Date: Fri, 11 Aug 2023 11:50:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 18:14:27.824432
- Title: Graph Neural Network Sensitivity Under Probabilistic Error Model
- Title(参考訳): 確率的誤差モデルによるグラフニューラルネットワークの感度
- Authors: Xinjue Wang, Esa Ollila and Sergiy A. Vorobyov
- Abstract要約: グラフ畳み込みネットワーク(GCN)はグラフ畳み込みによってグラフ信号表現をうまく学習することができる。
確率的グラフ誤差モデルがGCNの性能に及ぼす影響について検討する。
- 参考スコア(独自算出の注目度): 34.77189111685574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph convolutional networks (GCNs) can successfully learn the graph signal
representation by graph convolution. The graph convolution depends on the graph
filter, which contains the topological dependency of data and propagates data
features. However, the estimation errors in the propagation matrix (e.g., the
adjacency matrix) can have a significant impact on graph filters and GCNs. In
this paper, we study the effect of a probabilistic graph error model on the
performance of the GCNs. We prove that the adjacency matrix under the error
model is bounded by a function of graph size and error probability. We further
analytically specify the upper bound of a normalized adjacency matrix with
self-loop added. Finally, we illustrate the error bounds by running experiments
on a synthetic dataset and study the sensitivity of a simple GCN under this
probabilistic error model on accuracy.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)はグラフ畳み込みによってグラフ信号表現をうまく学習することができる。
グラフの畳み込みは、データのトポロジ的依存関係を含み、データ特徴を伝播するグラフフィルタに依存する。
しかし、伝播行列(例えば、隣接行列)における推定誤差は、グラフフィルタやGCNに大きな影響を与える可能性がある。
本稿では,確率的グラフ誤差モデルがGCNの性能に与える影響について検討する。
誤差モデルの下での隣接行列はグラフサイズと誤差確率の関数によって境界づけられていることを証明する。
さらに,自己ループを付加した正規化隣接行列の上界を解析的に指定する。
最後に, この確率的誤差モデルを用いて, 合成データセット上で実験を行い, 簡易GCNの感度について検討する。
関連論文リスト
- Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Robust Graph Neural Network based on Graph Denoising [10.564653734218755]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータセットを扱う学習問題に対して、悪名高い代替手段として登場した。
本研究は,観測トポロジにおける摂動の存在を明示的に考慮した,GNNの堅牢な実装を提案する。
論文 参考訳(メタデータ) (2023-12-11T17:43:57Z) - Global Minima, Recoverability Thresholds, and Higher-Order Structure in
GNNS [0.0]
ランダムグラフ理論の観点から,グラフニューラルネットワーク(GNN)アーキテクチャの性能を解析する。
合成データにおける特定の高次構造と実データにおける経験的構造の混合が、GNNの性能に劇的な影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2023-10-11T17:16:33Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Stable and Transferable Hyper-Graph Neural Networks [95.07035704188984]
グラフニューラルネットワーク(GNN)を用いたハイパーグラフでサポートする信号処理アーキテクチャを提案する。
スペクトル類似性により任意のグラフにまたがってGNNの安定性と転送可能性の誤差をバウンドするフレームワークを提供する。
論文 参考訳(メタデータ) (2022-11-11T23:44:20Z) - Stability of Graph Convolutional Neural Networks to Stochastic
Perturbations [122.12962842842349]
グラフ畳み込みニューラルネットワーク(GCNN)は、ネットワークデータから表現を学ぶ非線形処理ツールである。
現在の分析では決定論的摂動を考慮しているが、トポロジカルな変化がランダムである場合、関連する洞察を与えられない。
本稿では,リンク損失に起因する乱れグラフ摂動に対するGCNNの安定性について検討する。
論文 参考訳(メタデータ) (2021-06-19T16:25:28Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Stochastic Graph Neural Networks [123.39024384275054]
グラフニューラルネットワーク(GNN)は、分散エージェント調整、制御、計画に応用したグラフデータの非線形表現をモデル化する。
現在のGNNアーキテクチャは理想的なシナリオを前提として,環境やヒューマンファクタ,あるいは外部攻撃によるリンク変動を無視している。
これらの状況において、GNNは、トポロジカルなランダム性を考慮していない場合、その分散タスクに対処することができない。
論文 参考訳(メタデータ) (2020-06-04T08:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。