論文の概要: Training Graph Neural Networks Using Non-Robust Samples
- arxiv url: http://arxiv.org/abs/2412.14738v6
- Date: Tue, 21 Jan 2025 07:43:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:15:47.067320
- Title: Training Graph Neural Networks Using Non-Robust Samples
- Title(参考訳): 非ロバストサンプルを用いたグラフニューラルネットワークの訓練
- Authors: Yongyu Wang,
- Abstract要約: グラフニューラルネットワーク(GNN)は、構造化されたデータを処理するための、非常に効果的なニューラルネットワークである。
GNNは、データポイント間の関係を表すグラフ構造と、データの特徴行列の両方を活用して、特徴表現を最適化する。
本稿では,モデルトレーニングのためのより小型で効果的なトレーニングセットを構築するために,元のトレーニングセットからノイズに敏感なトレーニングサンプルを選択する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 2.1937382384136637
- License:
- Abstract: Graph Neural Networks (GNNs) are a highly effective neural network architecture for processing graph -- structured data. Unlike traditional neural networks that rely solely on the features of the data as input, GNNs leverage both the graph structure, which represents the relationships between data points, and the feature matrix of the data to optimize their feature representation. This unique capability enables GNNs to achieve superior performance across various tasks. However, it also makes GNNs more susceptible to noise from both the graph structure and data features, which can significantly increase the training difficulty and degrade their performance. To address this issue, this paper proposes a novel method for selecting noise-sensitive training samples from the original training set to construct a smaller yet more effective training set for model training. These samples are used to help improve the model's ability to correctly process data in noisy environments. We have evaluated our approach on three of the most classical GNN models -- GCN, GAT, and GraphSAGE -- as well as three widely used benchmark datasets: Cora, Citeseer, and PubMed. Our experiments demonstrate that the proposed method can substantially boost the training of Graph Neural Networks compared to using randomly sampled training sets of the same size from the original training set and the larger original full training set.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、構造化データを処理するための、非常に効果的なニューラルネットワークアーキテクチャである。
入力としてデータの特徴のみに依存する従来のニューラルネットワークとは異なり、GNNはデータポイント間の関係を表すグラフ構造と、データの特徴行列の両方を活用して特徴表現を最適化する。
このユニークな機能により、GNNは様々なタスクで優れたパフォーマンスを達成できる。
しかし、グラフ構造とデータ特徴の両方からノイズを受けやすいため、トレーニングの難しさを大幅に増加させ、パフォーマンスを低下させる可能性がある。
そこで本研究では,モデルトレーニングのためのより小型で効果的なトレーニングセットを構築するために,元のトレーニングセットからノイズに敏感なトレーニングサンプルを選択する新しい手法を提案する。
これらのサンプルは、ノイズの多い環境でデータを正しく処理するモデルの能力を改善するのに役立ちます。
私たちは、最も古典的なGNNモデルであるGCN、GAT、GraphSAGEの3つと、Cora、Citeseer、PubMedの3つの広く使用されているベンチマークデータセットに対して、アプローチを評価しました。
実験により,提案手法は,元のトレーニングセットとより大きなトレーニングセットから,同じ大きさのランダムサンプリングトレーニングセットを用いて,グラフニューラルネットワークのトレーニングを大幅に向上させることができることを示した。
関連論文リスト
- DEGNN: Dual Experts Graph Neural Network Handling Both Edge and Node Feature Noise [5.048629544493508]
グラフニューラルネットワーク(GNN)は、グラフデータよりも様々なアプリケーションで顕著な成功を収めている。
近年の研究では、実世界のグラフにはノイズがしばしば含まれており、GNNはグラフ内のノイズに影響を受けやすいことが判明している。
我々は、エッジとノードの特徴の両面においてノイズを効果的に緩和するために設計された新しいGNNモデルであるDECNNを提案する。
論文 参考訳(メタデータ) (2024-04-14T10:04:44Z) - A Simple and Yet Fairly Effective Defense for Graph Neural Networks [18.140756786259615]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ上での機械学習の主要なアプローチとして登場した。
既存の対向性摂動に対する防御法は、時間的複雑さに悩まされている。
本稿では,ノイズを基礎となるモデルのアーキテクチャに組み込む新しい防御手法であるNoisyGNNを紹介する。
論文 参考訳(メタデータ) (2024-02-21T18:16:48Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - MAG-GNN: Reinforcement Learning Boosted Graph Neural Network [68.60884768323739]
特定の研究の行は、GNNの表現性を向上させるためにサブグラフ情報を使用するサブグラフGNNを提案し、大きな成功を収めた。
このような効果は、すべての可能な部分グラフを列挙することによって、GNNの効率を犠牲にする。
本稿では,強化学習(RL)により強化されたGNNである磁気グラフニューラルネットワーク(MAG-GNN)を提案する。
論文 参考訳(メタデータ) (2023-10-29T20:32:21Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Addressing Over-Smoothing in Graph Neural Networks via Deep Supervision [13.180922099929765]
ディープグラフニューラルネットワーク(GNN)は、層数が増加すると過度に滑らかになる。
本研究では,すべての層で学習した表現を訓練に利用するDSGNNを提案する。
DSGNNは過度に平滑であり,ノードおよびグラフ特性予測問題における競合ベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-25T06:05:55Z) - Robust Graph Neural Networks via Probabilistic Lipschitz Constraints [7.359962178534361]
グラフニューラルネットワーク(GNN)は、最近、さまざまなネットワークベースのタスクでうまく機能することが実証されている。
GNNは入力のシフトや摂動の影響を受けやすく、ノード属性とグラフ構造の両方を含むことができる。
論文 参考訳(メタデータ) (2021-12-14T17:33:32Z) - Edgeless-GNN: Unsupervised Inductive Edgeless Network Embedding [7.391641422048645]
ネットワークを新たに入力したユーザなど,エッジレスノードを埋め込む問題について検討する。
我々は,非教師付き帰納学習により,エッジレスノードに対してもノード埋め込みを生成可能な新しいフレームワークであるEdgeless-GNNを提案する。
論文 参考訳(メタデータ) (2021-04-12T06:37:31Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Graph Neural Networks for Motion Planning [108.51253840181677]
低次元問題に対する高密度固定グラフ上のGNNと高次元問題に対するサンプリングベースGNNの2つの手法を提案する。
RRT(Rapidly-Exploring Random Trees)におけるクリティカルノードの特定やサンプリング分布の学習といった計画上の問題にGNNが取り組む能力について検討する。
臨界サンプリング、振り子、6つのDoFロボットアームによる実験では、GNNは従来の分析手法の改善だけでなく、完全に接続されたニューラルネットワークや畳み込みニューラルネットワークを用いた学習アプローチも示している。
論文 参考訳(メタデータ) (2020-06-11T08:19:06Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。