論文の概要: Simplifying GNN Performance with Low Rank Kernel Models
- arxiv url: http://arxiv.org/abs/2310.05250v1
- Date: Sun, 8 Oct 2023 17:56:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 09:04:25.591032
- Title: Simplifying GNN Performance with Low Rank Kernel Models
- Title(参考訳): 低ランクカーネルモデルによるGNN性能の簡易化
- Authors: Luciano Vinas and Arash A. Amini
- Abstract要約: 半教師付きノード分類(SSNC)への最近のスペクトルGNNアプローチを再考する。
また,近年のGNN手法の性能改善は,評価基準の変化によるものである可能性が示唆された。
- 参考スコア(独自算出の注目度): 14.304623719903972
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We revisit recent spectral GNN approaches to semi-supervised node
classification (SSNC). We posit that many of the current GNN architectures may
be over-engineered. Instead, simpler, traditional methods from nonparametric
estimation, applied in the spectral domain, could replace many deep-learning
inspired GNN designs. These conventional techniques appear to be well suited
for a variety of graph types reaching state-of-the-art performance on many of
the common SSNC benchmarks. Additionally, we show that recent performance
improvements in GNN approaches may be partially attributed to shifts in
evaluation conventions. Lastly, an ablative study is conducted on the various
hyperparameters associated with GNN spectral filtering techniques. Code
available at: https://github.com/lucianoAvinas/lowrank-gnn-kernels
- Abstract(参考訳): 半教師付きノード分類(SSNC)に対する最近のスペクトルGNNアプローチを再考する。
現在のGNNアーキテクチャの多くはオーバーエンジニアリングされる可能性があると仮定する。
代わりに、スペクトル領域に適用された非パラメトリック推定からのより単純な伝統的な手法は、多くの深層学習にインスパイアされたGNN設計を置き換えることができる。
これらの従来の手法は、多くの一般的なssncベンチマークで最先端のパフォーマンスに達する様々なグラフタイプに適しているように見える。
さらに,近年のGNN手法の性能改善は,評価基準の変化によるものである可能性が示唆された。
最後に、gnnスペクトルフィルタリング技術に関連する様々なハイパーパラメータについて、アブレーション研究を行う。
コード提供: https://github.com/lucianoavinas/lowrank-gnn-kernels
関連論文リスト
- GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - Applications of Lattice Gauge Equivariant Neural Networks [0.0]
格子ゲージ同変畳み込みニューラルネットワーク(L-CNN)
L-CNNは従来のニューラルネットワークよりも、異なるサイズの格子をより一般化することができる。
我々はL-CNNのWilsonフローや連続正規化フローへの応用の可能性について述べる。
論文 参考訳(メタデータ) (2022-12-01T19:32:42Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Learnable Filters for Geometric Scattering Modules [64.03877398967282]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2022-08-15T22:30:07Z) - Parallel and Distributed Graph Neural Networks: An In-Depth Concurrency
Analysis [28.464210819376593]
グラフニューラルネットワーク(GNN)は、ディープラーニングにおいて最も強力なツールのひとつだ。
ノード分類、グラフ分類、リンク予測などの非構造化ネットワーク上の複雑な問題を高精度に解決する。
しかし、GNNの推論とトレーニングは複雑であり、不規則なグラフ処理の特徴と密度と正規な計算を一意に組み合わせている。
この複雑さは、現代の大規模並列アーキテクチャ上でGNNを効率的に実行することを非常に困難にしている。
論文 参考訳(メタデータ) (2022-05-19T17:11:45Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z) - Bayesian Graph Neural Networks with Adaptive Connection Sampling [62.51689735630133]
グラフニューラルネットワーク(GNN)における適応接続サンプリングのための統一的なフレームワークを提案する。
提案フレームワークは,深部GNNの過度なスムース化や過度に適合する傾向を緩和するだけでなく,グラフ解析タスクにおけるGNNによる不確実性の学習を可能にする。
論文 参考訳(メタデータ) (2020-06-07T07:06:35Z) - Self-Enhanced GNN: Improving Graph Neural Networks Using Model Outputs [20.197085398581397]
グラフニューラルネットワーク(GNN)は最近、グラフベースのタスクにおける優れたパフォーマンスのために、多くの注目を集めている。
本稿では,既存のGNNモデルの出力を用いて,入力データの品質を向上させる自己強化型GNN(SEG)を提案する。
SEGは、GCN、GAT、SGCといったよく知られたGNNモデルのさまざまなデータセットのパフォーマンスを一貫して改善する。
論文 参考訳(メタデータ) (2020-02-18T12:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。