論文の概要: GPNet: Simplifying Graph Neural Networks via Multi-channel Geometric
Polynomials
- arxiv url: http://arxiv.org/abs/2209.15454v1
- Date: Fri, 30 Sep 2022 13:03:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 14:40:48.345040
- Title: GPNet: Simplifying Graph Neural Networks via Multi-channel Geometric
Polynomials
- Title(参考訳): GPNet: 多チャンネル幾何多項式によるグラフニューラルネットワークの簡易化
- Authors: Xun Liu, Alex Hay-Man Ng, Fangyuan Lei, Yikuan Zhang, Zhengmin Li
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データにおける現実の問題を回避するための有望なアプローチである。
これらのモデルは、通常、過度に滑らかな、過度に適合する、訓練しにくい、強いホモフィリー仮定の4つの基本的な制限のうちの少なくとも1つを持つ。
本稿では, (D1) 拡張畳み込み, (D2) マルチチャネル学習, (D3) 自己注意スコア, (D4) サインファクタなどのキーデザインの集合を同定し,異なるタイプの学習を促進する。
理論的にモデルを解析し、自己注意スコアを調整することにより、様々なグラフフィルタを近似できることを示す。
- 参考スコア(独自算出の注目度): 2.521781613847069
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) are a promising deep learning approach for
circumventing many real-world problems on graph-structured data. However, these
models usually have at least one of four fundamental limitations:
over-smoothing, over-fitting, difficult to train, and strong homophily
assumption. For example, Simple Graph Convolution (SGC) is known to suffer from
the first and fourth limitations. To tackle these limitations, we identify a
set of key designs including (D1) dilated convolution, (D2) multi-channel
learning, (D3) self-attention score, and (D4) sign factor to boost learning
from different types (i.e. homophily and heterophily) and scales (i.e. small,
medium, and large) of networks, and combine them into a graph neural network,
GPNet, a simple and efficient one-layer model. We theoretically analyze the
model and show that it can approximate various graph filters by adjusting the
self-attention score and sign factor. Experiments show that GPNet consistently
outperforms baselines in terms of average rank, average accuracy, complexity,
and parameters on semi-supervised and full-supervised tasks, and achieves
competitive performance compared to state-of-the-art model with inductive
learning task.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データ上の現実的な問題の多くを回避するための、有望なディープラーニングアプローチである。
しかしながら、これらのモデルは、通常4つの基本的な制限のうちの少なくとも1つ、過剰なスムーシング、過剰フィッティング、訓練が難しい、強いホモフィリー仮定を持つ。
例えば、単純なグラフ畳み込み(sgc)は、第1および第4の制限に苦しむことが知られている。
これらの制約に対処するため, (D1) 拡張畳み込み, (D2) マルチチャネル学習, (D3) 自己注意スコア, (D4) サインファクタなど,異なるタイプの学習(ホモフィリー, ヘテロフィリー) とスケール(小, 中, 大規模) から学習を促進し,それらをグラフニューラルネットワーク, GPNet, シンプルで効率的な1層モデルに結合するキーデザインのセットを同定する。
理論的にモデルを解析し、自己注意スコアと符号係数を調整することにより、様々なグラフフィルタを近似できることを示す。
実験の結果,GPNetは半教師付きタスクにおいて平均ランク,平均精度,複雑性,パラメータの点で一貫してベースラインを上回り,インダクティブ学習タスクを用いた最先端モデルと比較して競争性能が向上していることがわかった。
関連論文リスト
- DeltaGNN: Graph Neural Network with Information Flow Control [5.563171090433323]
グラフニューラルネットワーク(GNN)は、メッセージパッシングプロセスの近傍集約を通じてグラフ構造化データを処理するように設計されている。
メッセージパッシングにより、GNNは短距離空間的相互作用を理解できるだけでなく、過度なスムーシングや過度なスカッシングに悩まされる。
本稿では,線形計算オーバーヘッドを伴うオーバー・スムーシングとオーバー・スキャッシングに対処するための,emph情報フロー制御機構を提案する。
さまざまなサイズ、トポロジ、密度、ホモフィリック比のグラフを含む10の実世界のデータセットを対象に、我々のモデルをベンチマークし、優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-01-10T14:34:20Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - Scale Invariance of Graph Neural Networks [4.002604752467421]
グラフニューラルネットワーク(GNN)における2つの基本的な課題に対処する。
本研究では,4つの同好性および2つの異好性ベンチマークデータセットにまたがって,最先端のパフォーマンスを実現する統一ネットワークアーキテクチャであるScaleNetを提案する。
ダイグラフに対する別の一般的なGNNアプローチとして、Hermitian Laplacian法とGraphSAGEと入射正規化の等価性を示す。
論文 参考訳(メタデータ) (2024-11-28T22:06:06Z) - Tensor-view Topological Graph Neural Network [16.433092191206534]
グラフニューラルネットワーク(GNN)は最近、グラフ学習において注目を集めている。
既存のGNNは、各ノード周辺の非常に限られた地区からのローカル情報のみを使用する。
本稿では,単純かつ効果的な深層学習のクラスであるTopological Graph Neural Network (TTG-NN)を提案する。
実データ実験により,提案したTTG-NNは,グラフベンチマークにおいて20の最先端手法より優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:55:01Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Graph Neural Networks with Adaptive Frequency Response Filter [55.626174910206046]
適応周波数応答フィルタを用いたグラフニューラルネットワークフレームワークAdaGNNを開発した。
提案手法の有効性を,様々なベンチマークデータセット上で実証的に検証した。
論文 参考訳(メタデータ) (2021-04-26T19:31:21Z) - Learning Graph Neural Networks with Positive and Unlabeled Nodes [34.903471348798725]
グラフニューラルネットワーク(GNN)は、グラフのノード分類など、トランスダクティブな学習タスクのための重要なツールです。
ほとんどのGNNモデルは、各ラウンドで短い距離から情報を集約し、グラフで長距離関係をキャプチャできません。
本論文では,これらの制限を克服するために,新しいグラフニューラルネットワークフレームワーク,LSDAN(Long-Short distance aggregation Network)を提案する。
論文 参考訳(メタデータ) (2021-03-08T11:43:37Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。