論文の概要: Flip Initial Features: Generalization of Neural Networks for
Semi-supervised Node Classification
- arxiv url: http://arxiv.org/abs/2211.15081v2
- Date: Thu, 1 Dec 2022 06:03:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 14:07:39.763054
- Title: Flip Initial Features: Generalization of Neural Networks for
Semi-supervised Node Classification
- Title(参考訳): flip initial features: 半教師付きノード分類のためのニューラルネットワークの一般化
- Authors: Yoonhyuk Choi, Jiho Choi, Taewook Ko, Chong-Kwon Kim
- Abstract要約: グラフニューラルネットワーク(GNN)は、半教師付き設定下で広く利用されている。
本稿では,GNNにおけるオーバーフィッティング問題に対処するための新しい戦略を提案する。
提案手法はノード分類精度を最大40.2%向上させる。
- 参考スコア(独自算出の注目度): 1.3190581566723918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have been widely used under semi-supervised
settings. Prior studies have mainly focused on finding appropriate graph
filters (e.g., aggregation schemes) to generalize well for both homophilic and
heterophilic graphs. Even though these approaches are essential and effective,
they still suffer from the sparsity in initial node features inherent in the
bag-of-words representation. Common in semi-supervised learning where the
training samples often fail to cover the entire dimensions of graph filters
(hyperplanes), this can precipitate over-fitting of specific dimensions in the
first projection matrix. To deal with this problem, we suggest a simple and
novel strategy; create additional space by flipping the initial features and
hyperplane simultaneously. Training in both the original and in the flip space
can provide precise updates of learnable parameters. To the best of our
knowledge, this is the first attempt that effectively moderates the overfitting
problem in GNN. Extensive experiments on real-world datasets demonstrate that
the proposed technique improves the node classification accuracy up to 40.2 %
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、半教師付き設定下で広く利用されている。
以前の研究は主に、好気性グラフと好気性グラフの両方をよく一般化するための適切なグラフフィルタ(例えば集約スキーム)を見つけることに重点を置いてきた。
これらのアプローチは必須かつ効果的ではあるが、単語の袋表現に内在する初期ノードの特徴のスパースに苦しむ。
半教師付き学習では、トレーニングサンプルがグラフフィルタ(超平面)の全次元をカバーできない場合があり、これは第1のプロジェクター行列における特定の次元の過度な適合を生じさせる。
この問題に対処するために、我々は単純で新しい戦略を提案し、初期特徴と超平面を同時に反転させて追加空間を作成する。
オリジナルとフリップスペースの両方でのトレーニングは、学習可能なパラメータの正確な更新を提供することができる。
我々の知る限りでは、これはGNNのオーバーフィッティング問題を効果的に緩和する最初の試みである。
実世界のデータセットに対する大規模な実験により、提案手法はノード分類精度を最大40.2%改善することを示した。
関連論文リスト
- A Unified Graph Selective Prompt Learning for Graph Neural Networks [20.595782116049428]
Graph Prompt Feature(GPF)は、Graph Neural Networks(GNN)のトレーニング済みモデルを適応することに成功した。
GNNファインチューニングのための新しいグラフ選択型プロンプト特徴学習(GSPF)を提案する。
論文 参考訳(メタデータ) (2024-06-15T04:36:40Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Every Node Counts: Improving the Training of Graph Neural Networks on
Node Classification [9.539495585692007]
ノード分類のためのGNNのトレーニングのための新しい目的語を提案する。
我々の第一項は、ノードとラベルの特徴間の相互情報を最大化することを目的としている。
第2項は予測写像における異方的滑らか性を促進する。
論文 参考訳(メタデータ) (2022-11-29T23:25:14Z) - Invertible Neural Networks for Graph Prediction [22.140275054568985]
本研究では,ディープ・インバーチブル・ニューラルネットワークを用いた条件生成について述べる。
私たちの目標は,前処理と後処理の予測と生成を同時に行うことにあるので,エンドツーエンドのトレーニングアプローチを採用しています。
論文 参考訳(メタデータ) (2022-06-02T17:28:33Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Simplifying approach to Node Classification in Graph Neural Networks [7.057970273958933]
グラフニューラルネットワークのノード特徴集約ステップと深さを分離し、異なる集約特徴が予測性能にどのように寄与するかを経験的に分析する。
集約ステップによって生成された全ての機能が有用であるとは限らないことを示し、これらの少ない情報的特徴を用いることは、GNNモデルの性能に有害であることを示す。
提案モデルでは,提案モデルが最先端のGNNモデルと同等あるいはそれ以上の精度を達成可能であることを実証的に示す。
論文 参考訳(メタデータ) (2021-11-12T14:53:22Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Data Augmentation for Graph Convolutional Network on Semi-Supervised
Classification [6.619370466850894]
グラフ畳み込みネットワーク(GCN)におけるグラフデータ拡張の問題について検討する。
具体的には、元の特徴に基づいてコサイン類似性に基づくクロスオペレーションを行い、新しいノード属性を含む新しいグラフ機能を作成する。
また,これらのGCNによって符号化された隠れノード埋め込みを最終ノード埋め込みに重み付けした注意統合モデルを提案する。
論文 参考訳(メタデータ) (2021-06-16T15:13:51Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。