論文の概要: Training Graph Neural Networks Using Non-Robust Samples
- arxiv url: http://arxiv.org/abs/2412.14738v6
- Date: Tue, 21 Jan 2025 07:43:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:15:47.067320
- Title: Training Graph Neural Networks Using Non-Robust Samples
- Title(参考訳): 非ロバストサンプルを用いたグラフニューラルネットワークの訓練
- Authors: Yongyu Wang,
- Abstract要約: グラフニューラルネットワーク(GNN)は、構造化されたデータを処理するための、非常に効果的なニューラルネットワークである。
GNNは、データポイント間の関係を表すグラフ構造と、データの特徴行列の両方を活用して、特徴表現を最適化する。
本稿では,モデルトレーニングのためのより小型で効果的なトレーニングセットを構築するために,元のトレーニングセットからノイズに敏感なトレーニングサンプルを選択する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 2.1937382384136637
- License:
- Abstract: Graph Neural Networks (GNNs) are a highly effective neural network architecture for processing graph -- structured data. Unlike traditional neural networks that rely solely on the features of the data as input, GNNs leverage both the graph structure, which represents the relationships between data points, and the feature matrix of the data to optimize their feature representation. This unique capability enables GNNs to achieve superior performance across various tasks. However, it also makes GNNs more susceptible to noise from both the graph structure and data features, which can significantly increase the training difficulty and degrade their performance. To address this issue, this paper proposes a novel method for selecting noise-sensitive training samples from the original training set to construct a smaller yet more effective training set for model training. These samples are used to help improve the model's ability to correctly process data in noisy environments. We have evaluated our approach on three of the most classical GNN models -- GCN, GAT, and GraphSAGE -- as well as three widely used benchmark datasets: Cora, Citeseer, and PubMed. Our experiments demonstrate that the proposed method can substantially boost the training of Graph Neural Networks compared to using randomly sampled training sets of the same size from the original training set and the larger original full training set.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、構造化データを処理するための、非常に効果的なニューラルネットワークアーキテクチャである。
入力としてデータの特徴のみに依存する従来のニューラルネットワークとは異なり、GNNはデータポイント間の関係を表すグラフ構造と、データの特徴行列の両方を活用して特徴表現を最適化する。
このユニークな機能により、GNNは様々なタスクで優れたパフォーマンスを達成できる。
しかし、グラフ構造とデータ特徴の両方からノイズを受けやすいため、トレーニングの難しさを大幅に増加させ、パフォーマンスを低下させる可能性がある。
そこで本研究では,モデルトレーニングのためのより小型で効果的なトレーニングセットを構築するために,元のトレーニングセットからノイズに敏感なトレーニングサンプルを選択する新しい手法を提案する。
これらのサンプルは、ノイズの多い環境でデータを正しく処理するモデルの能力を改善するのに役立ちます。
私たちは、最も古典的なGNNモデルであるGCN、GAT、GraphSAGEの3つと、Cora、Citeseer、PubMedの3つの広く使用されているベンチマークデータセットに対して、アプローチを評価しました。
実験により,提案手法は,元のトレーニングセットとより大きなトレーニングセットから,同じ大きさのランダムサンプリングトレーニングセットを用いて,グラフニューラルネットワークのトレーニングを大幅に向上させることができることを示した。
関連論文リスト
- Stealing Training Graphs from Graph Neural Networks [54.52392250297907]
グラフニューラルネットワーク(GNN)は、様々なタスクにおけるグラフのモデリングにおいて有望な結果を示している。
ニューラルネットワークがトレーニングサンプルを記憶できるため、GNNのモデルパラメータはプライベートトレーニングデータをリークするリスクが高い。
訓練されたGNNからグラフを盗むという新しい問題について検討する。
論文 参考訳(メタデータ) (2024-11-17T23:15:36Z) - GOODAT: Towards Test-time Graph Out-of-Distribution Detection [103.40396427724667]
グラフニューラルネットワーク(GNN)は、さまざまな領域にわたるグラフデータのモデリングに広く応用されている。
近年の研究では、特定のモデルのトレーニングや、よく訓練されたGNN上でのデータ修正に重点を置いて、OOD検出のグラフを調査している。
本稿では、GNNアーキテクチャのトレーニングデータと修正から独立して動作する、データ中心、教師なし、プラグアンドプレイのソリューションを提案する。
論文 参考訳(メタデータ) (2024-01-10T08:37:39Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Ensemble Learning for Graph Neural Networks [28.3650473174488]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための様々な分野で成功している。
本稿では,GNNの性能とロバスト性向上のためのアンサンブル学習手法の適用について検討する。
論文 参考訳(メタデータ) (2023-10-22T03:55:13Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Data-Free Adversarial Knowledge Distillation for Graph Neural Networks [62.71646916191515]
グラフ構造化データ(DFAD-GNN)を用いたデータフリー逆知識蒸留のための第1のエンドツーエンドフレームワークを提案する。
具体的には、DFAD-GNNは、教師モデルと学生モデルとを2つの識別器とみなし、教師モデルから学生モデルに知識を抽出するために学習グラフを導出するジェネレータという、主に3つの成分からなる生成的対向ネットワークを採用している。
我々のDFAD-GNNは、グラフ分類タスクにおける最先端のデータフリーベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2022-05-08T08:19:40Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Scalable Consistency Training for Graph Neural Networks via
Self-Ensemble Self-Distillation [13.815063206114713]
グラフニューラルネットワーク(GNN)の精度を向上させるための新しい一貫性トレーニング手法を提案する。
対象ノードに対して、異なる近傍展開を生成し、予測平均の知識をGNNに蒸留する。
提案手法は, 推定した近傍サンプルの予測値に近似し, 実質的には少数のサンプルしか必要としない。
論文 参考訳(メタデータ) (2021-10-12T19:24:42Z) - Variational models for signal processing with Graph Neural Networks [3.5939555573102853]
本稿では,ニューラルネットワークを用いた点雲の信号処理について述べる。
本研究では,このようなグラフニューラルネットワークの変分モデルを用いて,教師なし学習のためのグラフ上の信号を処理する方法を検討する。
論文 参考訳(メタデータ) (2021-03-30T13:31:11Z) - Ripple Walk Training: A Subgraph-based training framework for Large and
Deep Graph Neural Network [10.36962234388739]
本稿では,深部および大規模グラフニューラルネットワークのための一般的なサブグラフベーストレーニングフレームワークであるRipple Walk Training(RWT)を提案する。
RWTは、全グラフからサブグラフをサンプリングしてミニバッチを構成し、全GNNはミニバッチ勾配に基づいて更新される。
グラフの異なるサイズに関する大規模な実験は、様々なGNNを訓練する際のRWTの有効性と効率を実証している。
論文 参考訳(メタデータ) (2020-02-17T19:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。