論文の概要: Improving Graph Neural Network Training Efficiency by Constructing Training Sets with Noise-Susceptible Samples
- arxiv url: http://arxiv.org/abs/2412.14738v2
- Date: Sat, 21 Dec 2024 12:55:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 12:13:15.677704
- Title: Improving Graph Neural Network Training Efficiency by Constructing Training Sets with Noise-Susceptible Samples
- Title(参考訳): 雑音を受けやすいサンプルを用いたトレーニングセットの構築によるグラフニューラルネットワークトレーニング効率の向上
- Authors: Yongyu Wang,
- Abstract要約: グラフニューラルネットワーク(GNN)は、現在利用可能な最も強力なニューラルネットワークアーキテクチャのひとつである。
GNNはノイズの影響を受けやすいため、分類や予測といった一般的なタスクでは性能が著しく低下する可能性がある。
本稿では,スペクトル分析を利用して,雑音に最も敏感な点を特定し,選択する手法を提案する。
- 参考スコア(独自算出の注目度): 2.1937382384136637
- License:
- Abstract: Graph Neural Networks (GNNs) are among the most powerful neural network architectures currently available. Unlike traditional neural networks that solely rely on the feature vector of the data to be processed as input, GNNs utilize both the graph that represents the relationships between data points and the feature matrix of the data to optimize their feature representation. This unique capability allows GNNs to achieve superior performance in various tasks. However, GNNs are highly susceptible to noise, which can significantly degrade their performance in common tasks such as classification and prediction. This paper proposes a novel approach leveraging spectral analysis to identify and select the points most sensitive to noise for constructing the training set. By training GNNs on these noise-sensitive points, experimental results demonstrate a substantial improvement in training efficiency compared to using randomly selected training sets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、現在利用可能な最も強力なニューラルネットワークアーキテクチャのひとつだ。
入力として処理されるデータの特徴ベクトルのみに依存する従来のニューラルネットワークとは異なり、GNNは、データポイントとデータの特徴行列の関係を表すグラフの両方を使用して、特徴表現を最適化する。
このユニークな機能により、GNNは様々なタスクにおいて優れたパフォーマンスを達成することができる。
しかし、GNNはノイズの影響を受けやすいため、分類や予測といった一般的なタスクでは性能が著しく低下する可能性がある。
本稿では,スペクトル分析を利用して,雑音に最も敏感な点を特定し,選択する手法を提案する。
これらのノイズ感受性点についてGNNを訓練することにより、ランダムに選択したトレーニングセットに比べてトレーニング効率が大幅に向上したことを示す実験結果が得られた。
関連論文リスト
- DEGNN: Dual Experts Graph Neural Network Handling Both Edge and Node Feature Noise [5.048629544493508]
グラフニューラルネットワーク(GNN)は、グラフデータよりも様々なアプリケーションで顕著な成功を収めている。
近年の研究では、実世界のグラフにはノイズがしばしば含まれており、GNNはグラフ内のノイズに影響を受けやすいことが判明している。
我々は、エッジとノードの特徴の両面においてノイズを効果的に緩和するために設計された新しいGNNモデルであるDECNNを提案する。
論文 参考訳(メタデータ) (2024-04-14T10:04:44Z) - A Simple and Yet Fairly Effective Defense for Graph Neural Networks [18.140756786259615]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ上での機械学習の主要なアプローチとして登場した。
既存の対向性摂動に対する防御法は、時間的複雑さに悩まされている。
本稿では,ノイズを基礎となるモデルのアーキテクチャに組み込む新しい防御手法であるNoisyGNNを紹介する。
論文 参考訳(メタデータ) (2024-02-21T18:16:48Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - MAG-GNN: Reinforcement Learning Boosted Graph Neural Network [68.60884768323739]
特定の研究の行は、GNNの表現性を向上させるためにサブグラフ情報を使用するサブグラフGNNを提案し、大きな成功を収めた。
このような効果は、すべての可能な部分グラフを列挙することによって、GNNの効率を犠牲にする。
本稿では,強化学習(RL)により強化されたGNNである磁気グラフニューラルネットワーク(MAG-GNN)を提案する。
論文 参考訳(メタデータ) (2023-10-29T20:32:21Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Addressing Over-Smoothing in Graph Neural Networks via Deep Supervision [13.180922099929765]
ディープグラフニューラルネットワーク(GNN)は、層数が増加すると過度に滑らかになる。
本研究では,すべての層で学習した表現を訓練に利用するDSGNNを提案する。
DSGNNは過度に平滑であり,ノードおよびグラフ特性予測問題における競合ベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-25T06:05:55Z) - Robust Graph Neural Networks via Probabilistic Lipschitz Constraints [7.359962178534361]
グラフニューラルネットワーク(GNN)は、最近、さまざまなネットワークベースのタスクでうまく機能することが実証されている。
GNNは入力のシフトや摂動の影響を受けやすく、ノード属性とグラフ構造の両方を含むことができる。
論文 参考訳(メタデータ) (2021-12-14T17:33:32Z) - Edgeless-GNN: Unsupervised Inductive Edgeless Network Embedding [7.391641422048645]
ネットワークを新たに入力したユーザなど,エッジレスノードを埋め込む問題について検討する。
我々は,非教師付き帰納学習により,エッジレスノードに対してもノード埋め込みを生成可能な新しいフレームワークであるEdgeless-GNNを提案する。
論文 参考訳(メタデータ) (2021-04-12T06:37:31Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Graph Neural Networks for Motion Planning [108.51253840181677]
低次元問題に対する高密度固定グラフ上のGNNと高次元問題に対するサンプリングベースGNNの2つの手法を提案する。
RRT(Rapidly-Exploring Random Trees)におけるクリティカルノードの特定やサンプリング分布の学習といった計画上の問題にGNNが取り組む能力について検討する。
臨界サンプリング、振り子、6つのDoFロボットアームによる実験では、GNNは従来の分析手法の改善だけでなく、完全に接続されたニューラルネットワークや畳み込みニューラルネットワークを用いた学習アプローチも示している。
論文 参考訳(メタデータ) (2020-06-11T08:19:06Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。