論文の概要: Boosting GNN Performance via Training Sample Selection Based on Adversarial Robustness Evaluation
- arxiv url: http://arxiv.org/abs/2412.14738v1
- Date: Thu, 19 Dec 2024 11:10:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:30:27.418103
- Title: Boosting GNN Performance via Training Sample Selection Based on Adversarial Robustness Evaluation
- Title(参考訳): 対向ロバスト性評価に基づくトレーニングサンプル選択によるGNN性能の向上
- Authors: Yongyu Wang,
- Abstract要約: 本稿では,ノイズに最も敏感なグラフ内のノードを識別するために,逆評価手法を用いる新しい手法を提案する。
これらのノイズが発生しやすいノードからなるトレーニングセットを選択して構築することにより、グラフ畳み込みネットワーク(GCN)のトレーニングに使用する。
この戦略がGCNの性能を大幅に向上させることを示す実験結果を得た。
- 参考スコア(独自算出の注目度): 2.1937382384136637
- License:
- Abstract: Graph Neural Networks (GNNs) have established themselves as one of the most powerful neural network architectures, excelling in leveraging graph topology and node features for various tasks. However, GNNs are inherently vulnerable to noise in their inputs. Such noise can significantly degrade their performance. To address this challenge, we propose a novel approach that employs adversarial robustness evaluation techniques to identify nodes in the graph that are most susceptible to noise. By selecting and constructing a training set composed of these particularly noise-prone nodes, we then use them to train a Graph Convolutional Network (GCN). Our experimental results demonstrate that this strategy leads to substantial improvements in the GCN's performance.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、さまざまなタスクにグラフトポロジとノード機能を活用する上で優れた、最も強力なニューラルネットワークアーキテクチャの1つとして、自らを確立している。
しかし、GNNは本質的に入力のノイズに弱い。
このようなノイズは、その性能を著しく低下させる。
この課題に対処するため,ノイズに最も敏感なグラフ内のノードを特定するために,対向的ロバストネス評価手法を用いた新しい手法を提案する。
これらのノイズが発生しやすいノードからなるトレーニングセットを選択して構築することにより、グラフ畳み込みネットワーク(GCN)のトレーニングに使用します。
この戦略がGCNの性能を大幅に向上させることを示す実験結果を得た。
関連論文リスト
- Stealing Training Graphs from Graph Neural Networks [54.52392250297907]
グラフニューラルネットワーク(GNN)は、様々なタスクにおけるグラフのモデリングにおいて有望な結果を示している。
ニューラルネットワークがトレーニングサンプルを記憶できるため、GNNのモデルパラメータはプライベートトレーニングデータをリークするリスクが高い。
訓練されたGNNからグラフを盗むという新しい問題について検討する。
論文 参考訳(メタデータ) (2024-11-17T23:15:36Z) - GOODAT: Towards Test-time Graph Out-of-Distribution Detection [103.40396427724667]
グラフニューラルネットワーク(GNN)は、さまざまな領域にわたるグラフデータのモデリングに広く応用されている。
近年の研究では、特定のモデルのトレーニングや、よく訓練されたGNN上でのデータ修正に重点を置いて、OOD検出のグラフを調査している。
本稿では、GNNアーキテクチャのトレーニングデータと修正から独立して動作する、データ中心、教師なし、プラグアンドプレイのソリューションを提案する。
論文 参考訳(メタデータ) (2024-01-10T08:37:39Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Ensemble Learning for Graph Neural Networks [28.3650473174488]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための様々な分野で成功している。
本稿では,GNNの性能とロバスト性向上のためのアンサンブル学習手法の適用について検討する。
論文 参考訳(メタデータ) (2023-10-22T03:55:13Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Data-Free Adversarial Knowledge Distillation for Graph Neural Networks [62.71646916191515]
グラフ構造化データ(DFAD-GNN)を用いたデータフリー逆知識蒸留のための第1のエンドツーエンドフレームワークを提案する。
具体的には、DFAD-GNNは、教師モデルと学生モデルとを2つの識別器とみなし、教師モデルから学生モデルに知識を抽出するために学習グラフを導出するジェネレータという、主に3つの成分からなる生成的対向ネットワークを採用している。
我々のDFAD-GNNは、グラフ分類タスクにおける最先端のデータフリーベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2022-05-08T08:19:40Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Scalable Consistency Training for Graph Neural Networks via
Self-Ensemble Self-Distillation [13.815063206114713]
グラフニューラルネットワーク(GNN)の精度を向上させるための新しい一貫性トレーニング手法を提案する。
対象ノードに対して、異なる近傍展開を生成し、予測平均の知識をGNNに蒸留する。
提案手法は, 推定した近傍サンプルの予測値に近似し, 実質的には少数のサンプルしか必要としない。
論文 参考訳(メタデータ) (2021-10-12T19:24:42Z) - Variational models for signal processing with Graph Neural Networks [3.5939555573102853]
本稿では,ニューラルネットワークを用いた点雲の信号処理について述べる。
本研究では,このようなグラフニューラルネットワークの変分モデルを用いて,教師なし学習のためのグラフ上の信号を処理する方法を検討する。
論文 参考訳(メタデータ) (2021-03-30T13:31:11Z) - Ripple Walk Training: A Subgraph-based training framework for Large and
Deep Graph Neural Network [10.36962234388739]
本稿では,深部および大規模グラフニューラルネットワークのための一般的なサブグラフベーストレーニングフレームワークであるRipple Walk Training(RWT)を提案する。
RWTは、全グラフからサブグラフをサンプリングしてミニバッチを構成し、全GNNはミニバッチ勾配に基づいて更新される。
グラフの異なるサイズに関する大規模な実験は、様々なGNNを訓練する際のRWTの有効性と効率を実証している。
論文 参考訳(メタデータ) (2020-02-17T19:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。