論文の概要: A Comparative Study on Robust Graph Neural Networks to Structural Noises
- arxiv url: http://arxiv.org/abs/2112.06070v1
- Date: Sat, 11 Dec 2021 21:01:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 11:08:05.159040
- Title: A Comparative Study on Robust Graph Neural Networks to Structural Noises
- Title(参考訳): 構造雑音に対するロバストグラフニューラルネットワークの比較研究
- Authors: Zeyu Zhang, Yulong Pei
- Abstract要約: グラフニューラルネットワーク(GNN)は、近隣ノード間のメッセージの転送と集約によってノード表現を学習する。
GNNは、グラフ全体を通してノイズが伝播する可能性のあるメッセージパッシング機構のため、構造的なノイズに対して脆弱である可能性がある。
我々は、一貫した構造的雑音条件下で、様々な種類の頑健なGNNについて包括的で体系的な比較研究を行う。
- 参考スコア(独自算出の注目度): 12.44737954516764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) learn node representations by passing and
aggregating messages between neighboring nodes. GNNs have been applied
successfully in several application domains and achieved promising performance.
However, GNNs could be vulnerable to structural noise because of the message
passing mechanism where noise may be propagated through the entire graph.
Although a series of robust GNNs have been proposed, they are evaluated with
different structural noises, and it lacks a systematic comparison with
consistent settings. In this work, we conduct a comprehensive and systematical
comparative study on different types of robust GNNs under consistent structural
noise settings. From the noise aspect, we design three different levels of
structural noises, i.e., local, community, and global noises. From the model
aspect, we select some representative models from sample-based, revision-based,
and construction-based robust GNNs. Based on the empirical results, we provide
some practical suggestions for robust GNNs selection.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、近隣ノード間のメッセージの転送と集約によってノード表現を学習する。
GNNはいくつかのアプリケーションドメインでうまく適用され、有望なパフォーマンスを達成した。
しかし、GNNは、グラフ全体を通してノイズが伝播するメッセージパッシング機構のため、構造ノイズに弱い可能性がある。
一連の堅牢なGNNが提案されているが、異なる構造ノイズで評価されており、一貫性のある設定と体系的に比較されていない。
本研究は,構造雑音の一貫した設定下で異なるタイプのロバストgnnについて,包括的かつ体系的な比較研究を行う。
ノイズの側面から、我々は3つの異なる構造ノイズ、すなわち、地域、コミュニティ、グローバルノイズを設計する。
モデルの観点から,サンプルベース,リビジョンベース,建設ベースのロバストgnnから代表モデルを選択する。
実験結果に基づいて,堅牢なGNN選択のための実用的な提案を行う。
関連論文リスト
- DEGNN: Dual Experts Graph Neural Network Handling Both Edge and Node Feature Noise [5.048629544493508]
グラフニューラルネットワーク(GNN)は、グラフデータよりも様々なアプリケーションで顕著な成功を収めている。
近年の研究では、実世界のグラフにはノイズがしばしば含まれており、GNNはグラフ内のノイズに影響を受けやすいことが判明している。
我々は、エッジとノードの特徴の両面においてノイズを効果的に緩和するために設計された新しいGNNモデルであるDECNNを提案する。
論文 参考訳(メタデータ) (2024-04-14T10:04:44Z) - Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - A Simple and Yet Fairly Effective Defense for Graph Neural Networks [18.140756786259615]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ上での機械学習の主要なアプローチとして登場した。
既存の対向性摂動に対する防御法は、時間的複雑さに悩まされている。
本稿では,ノイズを基礎となるモデルのアーキテクチャに組み込む新しい防御手法であるNoisyGNNを紹介する。
論文 参考訳(メタデータ) (2024-02-21T18:16:48Z) - Global Minima, Recoverability Thresholds, and Higher-Order Structure in
GNNS [0.0]
ランダムグラフ理論の観点から,グラフニューラルネットワーク(GNN)アーキテクチャの性能を解析する。
合成データにおける特定の高次構造と実データにおける経験的構造の混合が、GNNの性能に劇的な影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2023-10-11T17:16:33Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - Dual GNNs: Graph Neural Network Learning with Limited Supervision [33.770877823910176]
本稿では,この課題に対処するための新しいDual GNN学習フレームワークを提案する。
2つのモジュールを2つのGNN学習フレームワークに統合することにより、エンドツーエンドで共同学習を行う。
論文 参考訳(メタデータ) (2021-06-29T23:52:25Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。