論文の概要: Training Robust Graph Neural Networks by Modeling Noise Dependencies
- arxiv url: http://arxiv.org/abs/2502.19670v1
- Date: Thu, 27 Feb 2025 01:30:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:59:03.248619
- Title: Training Robust Graph Neural Networks by Modeling Noise Dependencies
- Title(参考訳): 雑音依存性のモデル化によるロバストグラフニューラルネットワークの学習
- Authors: Yeonjun In, Kanghoon Yoon, Sukwon Yun, Kibum Kim, Sungchul Kim, Chanyoung Park,
- Abstract要約: 実世界のアプリケーションでは、グラフのノード機能は様々なソースからのノイズを含むことが多く、性能が著しく低下する。
本稿では,グラフ構造やノードラベルに伝搬するノイズ依存性の連鎖をノードの特徴として生み出す,より現実的なノイズシナリオ,依存性を意識したグラフ上のノイズ(DANG)を紹介する。
本稿では,DANGのデータ生成プロセス(DGP)における変数間の因果関係を変動推論を用いてキャプチャする,新しいロバストなGNN,DA-GNNを提案する。
- 参考スコア(独自算出の注目度): 28.1151026795484
- License:
- Abstract: In real-world applications, node features in graphs often contain noise from various sources, leading to significant performance degradation in GNNs. Although several methods have been developed to enhance robustness, they rely on the unrealistic assumption that noise in node features is independent of the graph structure and node labels, thereby limiting their applicability. To this end, we introduce a more realistic noise scenario, dependency-aware noise on graphs (DANG), where noise in node features create a chain of noise dependencies that propagates to the graph structure and node labels. We propose a novel robust GNN, DA-GNN, which captures the causal relationships among variables in the data generating process (DGP) of DANG using variational inference. In addition, we present new benchmark datasets that simulate DANG in real-world applications, enabling more practical research on robust GNNs. Extensive experiments demonstrate that DA-GNN consistently outperforms existing baselines across various noise scenarios, including both DANG and conventional noise models commonly considered in this field.
- Abstract(参考訳): 実世界のアプリケーションでは、グラフのノード機能は様々なソースからのノイズを含むことが多く、GNNの性能が著しく低下する。
頑健性を高めるためにいくつかの手法が開発されているが、それらはノードの特徴のノイズがグラフ構造やノードラベルに依存しないという非現実的な仮定に依存しているため、適用性が制限される。
この目的のために、我々は、グラフ構造やノードラベルに伝播するノイズ依存性の連鎖をノード特徴のノイズが生み出す、より現実的なノイズシナリオ、依存を意識したグラフ上のノイズ(DANG)を導入する。
本稿では,DANGのデータ生成プロセス(DGP)における変数間の因果関係を変動推論を用いてキャプチャする,新しいロバストなGNN,DA-GNNを提案する。
さらに、実世界のアプリケーションでDANGをシミュレートする新しいベンチマークデータセットを提案し、ロバストなGNNについてより実践的な研究を可能にする。
DA-GNNは、DANGや従来の騒音モデルなど、様々なノイズシナリオにおいて、既存のベースラインを一貫して上回ることを示した。
関連論文リスト
- Using Random Noise Equivariantly to Boost Graph Neural Networks Universally [27.542173012315413]
グラフニューラルネットワーク(GNN)は、様々なタスクにおける表現性を高めるために、入力機能としてランダムノイズの可能性を探っている。
本稿では,GNNにランダムノイズを発生させる際のサンプルの複雑さの増大を,慎重に設計することなく解明する理論的枠組みについて述べる。
本稿では, 雑音の対称特性を利用して, サンプルの複雑さとボスターの一般化を実現するアーキテクチャであるEquivariant Noise GNN (ENGNN)を提案する。
論文 参考訳(メタデータ) (2025-02-04T16:54:28Z) - Noise-Resilient Unsupervised Graph Representation Learning via Multi-Hop Feature Quality Estimation [53.91958614666386]
グラフニューラルネットワーク(GNN)に基づく教師なしグラフ表現学習(UGRL)
マルチホップ特徴量推定(MQE)に基づく新しいUGRL法を提案する。
論文 参考訳(メタデータ) (2024-07-29T12:24:28Z) - DEGNN: Dual Experts Graph Neural Network Handling Both Edge and Node Feature Noise [5.048629544493508]
グラフニューラルネットワーク(GNN)は、グラフデータよりも様々なアプリケーションで顕著な成功を収めている。
近年の研究では、実世界のグラフにはノイズがしばしば含まれており、GNNはグラフ内のノイズに影響を受けやすいことが判明している。
我々は、エッジとノードの特徴の両面においてノイズを効果的に緩和するために設計された新しいGNNモデルであるDECNNを提案する。
論文 参考訳(メタデータ) (2024-04-14T10:04:44Z) - Feature Noise Boosts DNN Generalization under Label Noise [65.36889005555669]
トレーニングデータにおけるラベルノイズの存在は、ディープニューラルネットワーク(DNN)の一般化に大きな影響を与える
本研究では,学習データの特徴に直接ノイズを付加する単純な特徴雑音法を,理論的に導入し,理論的に実証する。
論文 参考訳(メタデータ) (2023-08-03T08:31:31Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - How Powerful is Implicit Denoising in Graph Neural Networks [33.01155523195073]
我々は、GNNで暗黙の妄想が起こる時期と理由を総合的な理論的研究を行い、分析する。
我々の理論的分析は、暗黙の認知は接続性、グラフサイズ、GNNアーキテクチャに大きく依存していることを示唆している。
我々は頑健なグラフ畳み込みを導出し、ノード表現の滑らかさと暗黙の認知効果を高めることができる。
論文 参考訳(メタデータ) (2022-09-29T02:19:39Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - A Comparative Study on Robust Graph Neural Networks to Structural Noises [12.44737954516764]
グラフニューラルネットワーク(GNN)は、近隣ノード間のメッセージの転送と集約によってノード表現を学習する。
GNNは、グラフ全体を通してノイズが伝播する可能性のあるメッセージパッシング機構のため、構造的なノイズに対して脆弱である可能性がある。
我々は、一貫した構造的雑音条件下で、様々な種類の頑健なGNNについて包括的で体系的な比較研究を行う。
論文 参考訳(メタデータ) (2021-12-11T21:01:29Z) - Local Augmentation for Graph Neural Networks [78.48812244668017]
本稿では,局所的な部分グラフ構造によりノード特性を向上する局所拡張を提案する。
局所的な拡張に基づいて、プラグイン・アンド・プレイ方式で任意のGNNモデルに適用可能な、LA-GNNという新しいフレームワークをさらに設計する。
論文 参考訳(メタデータ) (2021-09-08T18:10:08Z) - Stochastic Aggregation in Graph Neural Networks [9.551282469099887]
グラフニューラルネットワーク(GNN)は、過スムージングおよび限られた電力識別を含む病理を発現する。
GNNsにおける集約のための統合フレームワーク(STAG)を提案する。そこでは、近隣からの集約プロセスにノイズが(適応的に)注入され、ノード埋め込みを形成する。
論文 参考訳(メタデータ) (2021-02-25T02:52:03Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。