論文の概要: Adaptive Kernel Graph Neural Network
- arxiv url: http://arxiv.org/abs/2112.04575v1
- Date: Wed, 8 Dec 2021 20:23:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 14:52:14.868921
- Title: Adaptive Kernel Graph Neural Network
- Title(参考訳): 適応型カーネルグラフニューラルネットワーク
- Authors: Mingxuan Ju, Shifu Hou, Yujie Fan, Jianan Zhao, Liang Zhao, Yanfang Ye
- Abstract要約: グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
- 参考スコア(独自算出の注目度): 21.863238974404474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have demonstrated great success in
representation learning for graph-structured data. The layer-wise graph
convolution in GNNs is shown to be powerful at capturing graph topology. During
this process, GNNs are usually guided by pre-defined kernels such as Laplacian
matrix, adjacency matrix, or their variants. However, the adoptions of
pre-defined kernels may restrain the generalities to different graphs: mismatch
between graph and kernel would entail sub-optimal performance. For example,
GNNs that focus on low-frequency information may not achieve satisfactory
performance when high-frequency information is significant for the graphs, and
vice versa. To solve this problem, in this paper, we propose a novel framework
- i.e., namely Adaptive Kernel Graph Neural Network (AKGNN) - which learns to
adapt to the optimal graph kernel in a unified manner at the first attempt. In
the proposed AKGNN, we first design a data-driven graph kernel learning
mechanism, which adaptively modulates the balance between all-pass and low-pass
filters by modifying the maximal eigenvalue of the graph Laplacian. Through
this process, AKGNN learns the optimal threshold between high and low frequency
signals to relieve the generality problem. Later, we further reduce the number
of parameters by a parameterization trick and enhance the expressive power by a
global readout function. Extensive experiments are conducted on acknowledged
benchmark datasets and promising results demonstrate the outstanding
performance of our proposed AKGNN by comparison with state-of-the-art GNNs. The
source code is publicly available at: https://github.com/jumxglhf/AKGNN.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
GNNにおけるレイヤーワイドグラフの畳み込みは、グラフトポロジを捉えるのに強力であることが示されている。
この過程において、gnnは通常、ラプラシア行列、隣接行列、またはそれらの変異のような事前定義されたカーネルによって導かれる。
しかしながら、事前定義されたカーネルの採用により、異なるグラフへの汎用性が抑制される可能性がある。
例えば、低周波情報に焦点を当てたGNNは、高周波情報がグラフにとって重要である場合に満足できる性能を達成できない。
この問題を解決するために,本論文では,適応型カーネルグラフニューラルネットワーク(akgnn)という新しいフレームワークを提案し,最初の試みで最適なグラフカーネルへの適応を統一的に学習する。
提案したAKGNNでは,グラフラプラシアンの最大固有値を変更することで全パスフィルタと低パスフィルタのバランスを適応的に調整する,データ駆動型グラフカーネル学習機構を設計する。
このプロセスを通じて、AKGNNは高周波数信号と低周波数信号の最適閾値を学習し、一般性問題を緩和する。
その後、パラメータ化トリックによりパラメータの数をさらに減らし、大域的な読み出し関数によって表現力を高める。
認められたベンチマークデータセット上で広範な実験を行い,最先端gnnとの比較により,提案するaggnnの優れた性能を示す有望な結果を得た。
ソースコードは、https://github.com/jumxglhf/AKGNNで公開されている。
関連論文リスト
- Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Robust Graph Neural Network based on Graph Denoising [10.564653734218755]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータセットを扱う学習問題に対して、悪名高い代替手段として登場した。
本研究は,観測トポロジにおける摂動の存在を明示的に考慮した,GNNの堅牢な実装を提案する。
論文 参考訳(メタデータ) (2023-12-11T17:43:57Z) - Implicit Graph Neural Diffusion Networks: Convergence, Generalization,
and Over-Smoothing [7.984586585987328]
Inlicit Graph Neural Networks (GNN)は、グラフ学習問題に対処する上で大きな成功を収めた。
パラメータ化グラフラプラシアン演算子に基づく暗黙グラフ拡散層を設計するための幾何学的枠組みを提案する。
ディリクレエネルギー最小化問題の固定点方程式として, 暗黙のGNN層がどう見えるかを示す。
論文 参考訳(メタデータ) (2023-08-07T05:22:33Z) - Improving Expressivity of GNNs with Subgraph-specific Factor Embedded
Normalization [30.86182962089487]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱うための学習アーキテクチャの強力なカテゴリとして登場した。
我々は SUbgraph-sPEcific FactoR Embedded Normalization (SuperNorm) と呼ばれる専用プラグアンドプレイ正規化方式を提案する。
論文 参考訳(メタデータ) (2023-05-31T14:37:31Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - GraphNorm: A Principled Approach to Accelerating Graph Neural Network
Training [101.3819906739515]
グラフニューラルネットワーク(GNN)における正規化の有効性について検討する。
BatchNormやLayerNormと比較して、インスタンスNormの方が高速に収束できる。
GraphNormはGNNの一般化も改善し、グラフ分類ベンチマークのパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-09-07T17:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。