論文の概要: Robust Node Representation Learning via Graph Variational Diffusion
Networks
- arxiv url: http://arxiv.org/abs/2312.10903v1
- Date: Mon, 18 Dec 2023 03:18:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 21:25:14.796346
- Title: Robust Node Representation Learning via Graph Variational Diffusion
Networks
- Title(参考訳): グラフ変動拡散ネットワークによるロバストノード表現学習
- Authors: Jun Zhuang, Mohammad Al Hasan
- Abstract要約: 近年,グラフ構造における摂動により,GNNに基づくノード表現学習が著しく劣化する可能性が示唆されている。
摂動の存在下で頑健なノード表現を学習するために、GNNを保護するための様々な研究が提案されている。
本稿では,ガウス雑音を効果的に制御し,摂動グラフ上のロバスト性を保護する新しいノードエンコーダであるグラフ変分拡散ネットワーク(GVDN)を提案する。
- 参考スコア(独自算出の注目度): 7.335425547621226
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Node representation learning by using Graph Neural Networks (GNNs) has been
widely explored. However, in recent years, compelling evidence has revealed
that GNN-based node representation learning can be substantially deteriorated
by delicately-crafted perturbations in a graph structure. To learn robust node
representation in the presence of perturbations, various works have been
proposed to safeguard GNNs. Within these existing works, Bayesian label
transition has been proven to be more effective, but this method is extensively
reliant on a well-built prior distribution. The variational inference could
address this limitation by sampling the latent node embedding from a Gaussian
prior distribution. Besides, leveraging the Gaussian distribution (noise) in
hidden layers is an appealing strategy to strengthen the robustness of GNNs.
However, our experiments indicate that such a strategy can cause over-smoothing
issues during node aggregation. In this work, we propose the Graph Variational
Diffusion Network (GVDN), a new node encoder that effectively manipulates
Gaussian noise to safeguard robustness on perturbed graphs while alleviating
over-smoothing issues through two mechanisms: Gaussian diffusion and node
embedding propagation. Thanks to these two mechanisms, our model can generate
robust node embeddings for recovery. Specifically, we design a retraining
mechanism using the generated node embedding to recover the performance of node
classifications in the presence of perturbations. The experiments verify the
effectiveness of our proposed model across six public datasets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)を用いたノード表現学習が広く研究されている。
しかし近年,グラフ構造の微妙な乱れによって,GNNに基づくノード表現学習が著しく劣化する可能性が示唆されている。
摂動の存在下で頑健なノード表現を学習するために、GNNを保護するための様々な研究が提案されている。
これらの既存の作品の中で、ベイズラベルの遷移はより効果的であることが証明されているが、この方法は十分に構築された事前分布に依存する。
変分推論はガウス事前分布から潜伏ノードの埋め込みをサンプリングすることでこの制限に対処できる。
さらに、隠れた層におけるガウス分布(ノイズ)を活用することは、GNNの堅牢性を強化するための魅力的な戦略である。
しかし,本実験により,ノード集約時に過剰にスムースな問題を引き起こす可能性が示唆された。
本研究では,gaussian diffusion と node embedded propagation の2つの機構を用いて,グラフの頑健性を確保するためにガウス雑音を効果的に操作する新しいノードエンコーダである graph variational diffusion network (gvdn) を提案する。
これら2つのメカニズムにより、我々のモデルは回復のための堅牢なノード埋め込みを生成することができる。
具体的には,摂動の存在下でのノード分類の性能を回復するために,生成されたノード埋め込みを用いた再訓練機構を設計する。
実験により,提案モデルの有効性を6つの公開データセットで検証した。
関連論文リスト
- Bundle Neural Networks for message diffusion on graphs [10.018379001231356]
結合ニューラルネットワーク(BuNN)は,任意のグラフ上の任意の特徴変換をインジェクティブな位置符号化で近似できることを示す。
また、BuNNが任意のグラフの族上の任意の特徴変換を近似して、任意の射影的位置エンコーディングを行えば、普遍的なノードレベルの表現性が得られることを証明した。
論文 参考訳(メタデータ) (2024-05-24T13:28:48Z) - Graph Elimination Networks [8.806990624643333]
グラフニューラルネットワーク(GNN)は、様々な領域に広く適用されているが、深い層では性能が良くない。
深層層におけるGNNの性能劣化の根本原因は,非効率な近傍特徴伝搬にあることを示す。
本稿では,周辺伝播における冗長性を排除するために,特定のアルゴリズムを用いたグラフ除去ネットワーク(gens)を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:58:59Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Distributional Signals for Node Classification in Graph Neural Networks [36.30743671968087]
グラフニューラルネットワーク(GNN)では、ノード特徴とラベルの両方がグラフ信号の例であり、グラフ信号処理(GSP)における鍵概念である。
本フレームワークでは,ノードラベルの分布をその値の代わりに扱うとともに,そのような分布グラフ信号の滑らかさと非均一性の概念を提案する。
次に,GNNの一般正規化手法を提案し,半教師付きノード分類タスクにおけるモデル出力の分布の滑らかさと非均一性をエンコードする。
論文 参考訳(メタデータ) (2023-04-07T06:54:42Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Stochastic Graph Recurrent Neural Network [6.656993023468793]
本稿では,ノード属性とトポロジの進化を同時に捉えるために潜時変数を適用した新しいニューラルアーキテクチャであるSGRNNを提案する。
具体的には、決定論的状態は、相互干渉を抑制する反復過程において状態から分離される。
実世界のデータセットを用いた実験により,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2020-09-01T16:14:30Z) - Graph Convolutional Neural Networks with Node Transition
Probability-based Message Passing and DropNode Regularization [32.260055351563324]
最近、グラフ構造化データを扱う能力のため、グラフ畳み込みニューラルネットワーク(GCNN)が注目されている。
本研究は,ノード遷移確率に基づくメッセージパッシングプロセスを改善するための新しい手法を提案する。
また,DropNodeと呼ばれる新しい正規化手法を提案する。
論文 参考訳(メタデータ) (2020-08-28T10:51:03Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。