論文の概要: Perturb Initial Features: Generalization of Neural Networks Under Sparse
Features for Semi-supervised Node Classification
- arxiv url: http://arxiv.org/abs/2211.15081v7
- Date: Sun, 28 May 2023 13:40:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 02:44:41.811547
- Title: Perturb Initial Features: Generalization of Neural Networks Under Sparse
Features for Semi-supervised Node Classification
- Title(参考訳): perturb初期特徴:半教師付きノード分類のためのスパース特徴に基づくニューラルネットワークの一般化
- Authors: Yoonhyuk Choi, Jiho Choi, Taewook Ko, Chong-Kwon Kim
- Abstract要約: グラフニューラルネットワーク(GNN)のための新しいデータ拡張戦略を提案する。
初期特徴と超平面の両方を反転させることで、学習可能なパラメータをより正確に更新する訓練スペースを新たに作成する。
実世界のデータセットを用いた実験により,提案手法はノード分類精度を46.5%向上させることができた。
- 参考スコア(独自算出の注目度): 1.3190581566723918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) are commonly used in semi-supervised settings.
Previous research has primarily focused on finding appropriate graph filters
(e.g. aggregation methods) to perform well on both homophilic and heterophilic
graphs. While these methods are effective, they can still suffer from the
sparsity of node features, where the initial data contain few non-zero
elements. This can lead to overfitting in certain dimensions in the first
projection matrix, as training samples may not cover the entire range of graph
filters (hyperplanes). To address this, we propose a novel data augmentation
strategy. Specifically, by flipping both the initial features and hyperplane,
we create additional space for training, which leads to more precise updates of
the learnable parameters and improved robustness for unseen features during
inference. To the best of our knowledge, this is the first attempt to mitigate
the overfitting caused by the initial features. Extensive experiments on
real-world datasets show that our proposed technique increases node
classification accuracy by up to 46.5% relatively.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、半教師付き設定で一般的に使用される。
これまでの研究は主に、ホモ親和性グラフとヘテロ親和性グラフの両方でよく機能する適切なグラフフィルタ(例えばアグリゲーション法)の発見に重点を置いてきた。
これらの手法は有効であるが、初期データがゼロでない要素をほとんど含まないノード機能に悩まされることがある。
これは、トレーニングサンプルがグラフフィルタ(超平面)の全範囲をカバーしていないため、最初の射影行列の特定の次元で過度に適合する可能性がある。
そこで本研究では,新しいデータ拡張戦略を提案する。
具体的には、初期特徴と超平面の両方を反転させることで、学習可能なパラメータをより正確に更新し、推論中に目に見えない特徴の堅牢性を向上する訓練スペースを構築する。
私たちの知る限りでは、これは最初の機能によって引き起こされるオーバーフィットを軽減する最初の試みです。
実世界のデータセットに対する大規模な実験により,提案手法によりノード分類精度が46.5%向上した。
関連論文リスト
- A Unified Graph Selective Prompt Learning for Graph Neural Networks [20.595782116049428]
Graph Prompt Feature(GPF)は、Graph Neural Networks(GNN)のトレーニング済みモデルを適応することに成功した。
GNNファインチューニングのための新しいグラフ選択型プロンプト特徴学習(GSPF)を提案する。
論文 参考訳(メタデータ) (2024-06-15T04:36:40Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Every Node Counts: Improving the Training of Graph Neural Networks on
Node Classification [9.539495585692007]
ノード分類のためのGNNのトレーニングのための新しい目的語を提案する。
我々の第一項は、ノードとラベルの特徴間の相互情報を最大化することを目的としている。
第2項は予測写像における異方的滑らか性を促進する。
論文 参考訳(メタデータ) (2022-11-29T23:25:14Z) - Invertible Neural Networks for Graph Prediction [22.140275054568985]
本研究では,ディープ・インバーチブル・ニューラルネットワークを用いた条件生成について述べる。
私たちの目標は,前処理と後処理の予測と生成を同時に行うことにあるので,エンドツーエンドのトレーニングアプローチを採用しています。
論文 参考訳(メタデータ) (2022-06-02T17:28:33Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Simplifying approach to Node Classification in Graph Neural Networks [7.057970273958933]
グラフニューラルネットワークのノード特徴集約ステップと深さを分離し、異なる集約特徴が予測性能にどのように寄与するかを経験的に分析する。
集約ステップによって生成された全ての機能が有用であるとは限らないことを示し、これらの少ない情報的特徴を用いることは、GNNモデルの性能に有害であることを示す。
提案モデルでは,提案モデルが最先端のGNNモデルと同等あるいはそれ以上の精度を達成可能であることを実証的に示す。
論文 参考訳(メタデータ) (2021-11-12T14:53:22Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Data Augmentation for Graph Convolutional Network on Semi-Supervised
Classification [6.619370466850894]
グラフ畳み込みネットワーク(GCN)におけるグラフデータ拡張の問題について検討する。
具体的には、元の特徴に基づいてコサイン類似性に基づくクロスオペレーションを行い、新しいノード属性を含む新しいグラフ機能を作成する。
また,これらのGCNによって符号化された隠れノード埋め込みを最終ノード埋め込みに重み付けした注意統合モデルを提案する。
論文 参考訳(メタデータ) (2021-06-16T15:13:51Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。