論文の概要: Clenshaw Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2210.16508v1
- Date: Sat, 29 Oct 2022 06:32:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 15:29:17.926775
- Title: Clenshaw Graph Neural Networks
- Title(参考訳): Clenshaw Graph Neural Networks
- Authors: Yuhe Guo and Zhewei Wei
- Abstract要約: グラフ畳み込みネットワーク(GCN)は、グラフ表現を学習するための基礎的な方法である。
既存の残差接続技術は、基礎となるグラフ構造を広範囲に活用することができない。
本稿では,GCNモデルの表現性を高めるために,Clenshaw Summationアルゴリズムを用いたGNNモデルであるClenshawGCNを紹介する。
- 参考スコア(独自算出の注目度): 14.8308791628821
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Convolutional Networks (GCNs), which use a message-passing paradigm
with stacked convolution layers, are foundational methods for learning graph
representations. Recent GCN models use various residual connection techniques
to alleviate the model degradation problem such as over-smoothing and gradient
vanishing. Existing residual connection techniques, however, fail to make
extensive use of underlying graph structure as in the graph spectral domain,
which is critical for obtaining satisfactory results on heterophilic graphs. In
this paper, we introduce ClenshawGCN, a GNN model that employs the Clenshaw
Summation Algorithm to enhance the expressiveness of the GCN model. ClenshawGCN
equips the standard GCN model with two straightforward residual modules: the
adaptive initial residual connection and the negative second-order residual
connection. We show that by adding these two residual modules, ClenshawGCN
implicitly simulates a polynomial filter under the Chebyshev basis, giving it
at least as much expressive power as polynomial spectral GNNs. In addition, we
conduct comprehensive experiments to demonstrate the superiority of our model
over spatial and spectral GNN models.
- Abstract(参考訳): グラフ畳み込みネットワーク(graph convolutional networks:gcns)は、重ねられた畳み込み層を持つメッセージパッシングパラダイムを使用しており、グラフ表現を学習するための基礎的手法である。
最近のGCNモデルは、過度な平滑化や勾配消滅といったモデル劣化問題を緩和するために、様々な残差接続技術を使用している。
しかし、既存の残差接続技術は、グラフスペクトル領域のように基礎となるグラフ構造を広範囲に利用することができず、これは異種グラフの満足な結果を得るために重要である。
本稿では,GCNモデルの表現性を高めるために,Clenshaw Summation Algorithmを用いたGNNモデルであるClenshawGCNを紹介する。
ClenshawGCN は標準 GCN モデルにアダプティブ初期残差接続と負第二次残差接続の2つの単純残差加群を装備する。
これら2つの残余加群を加えることで、ClenshawGCN はチェビシェフ基底の下で多項式フィルタを暗黙的にシミュレートし、多項式スペクトル GNN と同程度の表現力を与えることを示す。
さらに,空間およびスペクトルGNNモデルよりもモデルの方が優れていることを示すため,包括的実験を行った。
関連論文リスト
- Neighborhood Convolutional Network: A New Paradigm of Graph Neural
Networks for Node Classification [12.062421384484812]
グラフ畳み込みネットワーク(GCN)は、各畳み込み層における近傍の集約と特徴変換を分離する。
本稿では,周辺畳み込みネットワーク(NCN)と呼ばれるGCNの新しいパラダイムを提案する。
このようにして、モデルは、近隣情報を集約するための分離GCNの利点を継承すると同時に、より強力な特徴学習モジュールを開発することができる。
論文 参考訳(メタデータ) (2022-11-15T02:02:51Z) - Learnable Filters for Geometric Scattering Modules [64.03877398967282]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2022-08-15T22:30:07Z) - Deep Manifold Learning with Graph Mining [80.84145791017968]
グラフマイニングのための非段階的決定層を持つ新しいグラフ深層モデルを提案する。
提案モデルでは,現行モデルと比較して最先端性能を実現している。
論文 参考訳(メタデータ) (2022-07-18T04:34:08Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Image-Like Graph Representations for Improved Molecular Property
Prediction [7.119677737397071]
本稿では,CubeMol と呼ばれる GNN の必要性を完全に回避する,新しい固有分子表現法を提案する。
我々の定次元表現は、トランスモデルと組み合わせると、最先端のGNNモデルの性能を超え、拡張性を提供する。
論文 参考訳(メタデータ) (2021-11-20T22:39:11Z) - SStaGCN: Simplified stacking based graph convolutional networks [2.556756699768804]
グラフ畳み込みネットワーク(GCN)は、様々なグラフ構造データ学習タスクにおいて広く研究されている強力なモデルである。
本稿では, SStaGCN (Simplified stacking based GCN) と呼ばれる新しいGCNを提案する。
SStaGCNはGCNの過密問題を効果的に軽減できることを示す。
論文 参考訳(メタデータ) (2021-11-16T05:00:08Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Simple and Deep Graph Convolutional Networks [63.76221532439285]
グラフ畳み込みネットワーク(GCN)は、グラフ構造化データに対する強力なディープラーニングアプローチである。
その成功にもかかわらず、現在のGCNモデルは、エムの過度に滑らかな問題のため、ほとんどが浅くなっている。
本稿では,2つの単純かつ効果的な手法を用いて,バニラGCNモデルを拡張したGCNIIを提案する。
論文 参考訳(メタデータ) (2020-07-04T16:18:06Z) - Directed Graph Convolutional Network [15.879411956536885]
スペクトルベースのグラフ畳み込みを1階と2階の近接を利用して有向グラフに拡張する。
DGCNと呼ばれる新しいGCNモデルは、有向グラフ上で表現を学ぶように設計されている。
論文 参考訳(メタデータ) (2020-04-29T06:19:10Z) - Scattering GCN: Overcoming Oversmoothness in Graph Convolutional
Networks [0.0]
グラフ畳み込みネットワーク(GCN)は,構造認識の特徴を抽出することによって,グラフデータ処理において有望な結果を示した。
本稿では、幾何学的散乱変換と残差畳み込みによる従来のGCNの増大を提案する。
前者はグラフ信号の帯域通過フィルタリングが可能であり、GCNでしばしば発生する過度な過度な処理を緩和する。
論文 参考訳(メタデータ) (2020-03-18T18:03:08Z) - Revisiting Graph based Collaborative Filtering: A Linear Residual Graph
Convolutional Network Approach [55.44107800525776]
グラフ畳み込みネットワーク(GCN)は、最先端のグラフベースの表現学習モデルである。
本稿では、GCNベースの協調フィルタリング(CF)ベースのレコメンダシステム(RS)について再検討する。
単純なグラフ畳み込みネットワークの理論と整合して,非線形性を取り除くことで推奨性能が向上することを示す。
本稿では,ユーザ・イテム相互作用モデリングを用いたCF用に特別に設計された残差ネットワーク構造を提案する。
論文 参考訳(メタデータ) (2020-01-28T04:41:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。