論文の概要: Improving Your Graph Neural Networks: A High-Frequency Booster
- arxiv url: http://arxiv.org/abs/2210.08251v1
- Date: Sat, 15 Oct 2022 10:24:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 20:12:20.504937
- Title: Improving Your Graph Neural Networks: A High-Frequency Booster
- Title(参考訳): グラフニューラルネットワークの改良: 高周波ブースター
- Authors: Jiaqi Sun, Lin Zhang, Shenglin Zhao, Yujiu Yang
- Abstract要約: 元のグラフの補グラフにはハイパスフィルタが組み込まれており、高周波数成分の効率的な増強を目的とした補完ラプラシアン正規化(CLAR)を提案する。
実験の結果、CLARはGNNが過剰な平滑化に取り組むのに役立ち、異種グラフの表現性を向上することを示した。
- 参考スコア(独自算出の注目度): 20.391179274946214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) hold the promise of learning efficient
representations of graph-structured data, and one of its most important
applications is semi-supervised node classification. However, in this
application, GNN frameworks tend to fail due to the following issues:
over-smoothing and heterophily. The most popular GNNs are known to be focused
on the message-passing framework, and recent research shows that these GNNs are
often bounded by low-pass filters from a signal processing perspective. We thus
incorporate high-frequency information into GNNs to alleviate this genetic
problem. In this paper, we argue that the complement of the original graph
incorporates a high-pass filter and propose Complement Laplacian Regularization
(CLAR) for an efficient enhancement of high-frequency components. The
experimental results demonstrate that CLAR helps GNNs tackle over-smoothing,
improving the expressiveness of heterophilic graphs, which adds up to 3.6%
improvement over popular baselines and ensures topological robustness.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、グラフ構造化データの効率的な表現の学習を約束しており、その最も重要な応用の1つは半教師付きノード分類である。
しかし、このアプリケーションでは、過剰なスムースとヘテロフィリーという問題のためにGNNフレームワークは失敗する傾向にある。
最も人気のあるGNNはメッセージパッシングフレームワークに焦点を当てていることが知られており、近年の研究により、これらのGNNは信号処理の観点からローパスフィルタによってバウンドされることがしばしば示されている。
そこで我々は,gnnに高周波情報を組み込んで遺伝的問題を緩和する。
本稿では,元のグラフの補グラフにハイパスフィルタが組み込まれ,高周波数成分の効率向上を目的とした補完ラプラシアン正規化(CLAR)を提案する。
実験の結果、CLARはGNNが過剰な平滑化に取り組み、異種グラフの表現性を向上し、一般的なベースラインよりも最大3.6%改善し、トポロジカルロバスト性を確保することが示されている。
関連論文リスト
- Unleash Graph Neural Networks from Heavy Tuning [33.948899558876604]
グラフニューラルネットワーク(GNN)は、グラフ型データ用に設計されたディープラーニングアーキテクチャである。
本稿では,光チューニングされた粗い探索中に保存されたチェックポイントから学習することで,高性能なGNNを直接生成するグラフ条件付き潜時拡散フレームワーク(GNN-Diff)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:23:47Z) - Design Your Own Universe: A Physics-Informed Agnostic Method for Enhancing Graph Neural Networks [34.16727363891593]
グラフニューラルネットワーク(GNN)のためのモデルに依存しない拡張フレームワークを提案する。
このフレームワークは、追加ノードを導入し、負の重み付けと負の重み付けの両方で接続を切り替えることでグラフ構造を豊かにする。
提案手法によって強化されたGNNが,過度にスムースな問題を効果的に回避し,過度なスキャッシングに対する堅牢性を示すことを理論的に検証する。
好中球グラフ,ヘテロ親和性グラフ,長期グラフデータセットのベンチマークにおける実証的検証により,本手法により強化されたGNNが元のグラフよりも有意に優れていることが示された。
論文 参考訳(メタデータ) (2024-01-26T00:47:43Z) - MAG-GNN: Reinforcement Learning Boosted Graph Neural Network [68.60884768323739]
特定の研究の行は、GNNの表現性を向上させるためにサブグラフ情報を使用するサブグラフGNNを提案し、大きな成功を収めた。
このような効果は、すべての可能な部分グラフを列挙することによって、GNNの効率を犠牲にする。
本稿では,強化学習(RL)により強化されたGNNである磁気グラフニューラルネットワーク(MAG-GNN)を提案する。
論文 参考訳(メタデータ) (2023-10-29T20:32:21Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Self-Enhanced GNN: Improving Graph Neural Networks Using Model Outputs [20.197085398581397]
グラフニューラルネットワーク(GNN)は最近、グラフベースのタスクにおける優れたパフォーマンスのために、多くの注目を集めている。
本稿では,既存のGNNモデルの出力を用いて,入力データの品質を向上させる自己強化型GNN(SEG)を提案する。
SEGは、GCN、GAT、SGCといったよく知られたGNNモデルのさまざまなデータセットのパフォーマンスを一貫して改善する。
論文 参考訳(メタデータ) (2020-02-18T12:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。